Sortie du manuel Introduction à la science informatique

Introduction à la Science Informatique - CouvertureEn visite en Angleterre, voici ce que disait le patron de Google dans une récente traduction du Framablog : « Je suis sidéré d’apprendre qu’il n’existe même pas d’enseignement de base de l’informatique dans les écoles britanniques aujourd’hui. Votre programme de technologie se concentre sur la manière d’utiliser un logiciel, mais n’explique pas comment il a été conçu. »

Et Slate.fr d’en remettre une couche le 4 septembre dernier dans son pertinent article La programmation pour les enfants: et pourquoi pas le code en LV3 ? : « Lassés d’avoir bouffé des slides de PowerPoint et des tableurs Excel dans leurs jeunes années, les étudiants se sont détournés peu à peu de l’étude de l’informatique confondant, bien malgré eux, l’apprentissage d’applications qu’ils trouvent généralement inintéressantes et celui des sciences computationnelles dont ils ne comprennent même pas l’intitulé. »

Toujours dans le même article : « On fait beaucoup d’esbroufe sur la délocalisation d’activités telles que la création de logiciel, mais ce qui n’est pas clair dans cette histoire c’est où est la charrue et où sont les bœufs. Est-ce que les entreprises délocalisent par ce que cela leur coûte moins cher et dans ce cas nous perdons des emplois sur le territoire, ou bien le font-elles parce qu’elle ne peuvent tout simplement pas recruter ici si bien qu’elles à se mettent rechercher des gens compétents ailleurs ? ».

Owni, quant à lui, va encore plus loin, avec son appel à hacker l’école accompagné du témoignage d’un père qui souhaite que sa fille en soit.

Lentement mais sûrement on prend enfin conscience que l’enseignement de l’informatique est un enjeu fondamental du monde d’aujourd’hui. Il y a ceux qui maîtriseront, ou tout du moins comprendront, le code et il y a ceux qui utiliseront le code créé par d’autres.

C’est pourquoi l’arrivée en France pour la rentrée 2012 en Terminale S de l’enseignement de spécialité « Informatique et sciences du numérique » est une avancée importante que l’on doit saluer comme il se doit.

Tout comme nous saluons ci-dessous la sortie d’un manuel support de cette nouvelle discipline (mais qui pourra également être utile et précieux à tout public intéressé par le sujet). Sous licence Creative Commons il a été rédigé collectivement par certains de ceux qui se sont battus avec force, courage et diplomatie pour que cet enseignement voit le jour (à commencer par Jean-Pierre Archambault que les lecteurs de ce blog connaissent bien).

Peut-être penserez-vous que c’est dommage et pas assez ambitieux de se contenter d’une spécialité pour la seule classe tardive de Terminale S ? (Peut-être jugerez-vous également que la licence Creative Commons choisie par le manuel n’est pas « assez ouverte » ?) Certes oui, mais en l’occurrence nous partons de si loin que l’on ne peut que se réjouir de ce petit pas qui met le pied dans la porte.

Et le Libre dans tout ça ?

Point n’est besoin de consulter les communiqués dédiés de l’April et de l’Aful, mentionnés ci-dessous, pour comprendre qu’il devrait largement bénéficier lui aussi de l’apparition de ce nouvel enseignement, synonyme de progrès et d’évolution des mentalités à l’Education nationale.

Edit du 18 septembre : Il y a une suite à cet article puisque les auteurs, Gilles Dowek et Jean-Pierre Archambault, ont choisi de commenter les nombreux et intéressants commentaires dans un nouveau billet.

Un manuel Introduction à la science informatique

Un manuel Introduction à la science informatique est paru en juillet 2011, destiné aux professeurs qui souhaitent se former avant de dispenser l’enseignement de spécialité « Informatique et sciences du numérique », créé en Terminale S à la rentrée 2012[1]. Il s’adresse aussi potentiellement à d’autres publics souhaitant s’approprier les bases de la science informatique[2].

Edité par le CRDP de Paris[3], ce manuel a été écrit par 17 auteurs[4] et coordonné par Gilles Dowek, directeur de recherche à l’INRIA. La préface est de Gérard Berry, professeur au Collège de France et membre de l’Académie des Sciences. Ce livre est sous licence Creative Commons : paternité, pas d’utilisation commerciale, pas de modification.

Il est composé de 7 chapitres : Représentation numérique de l’information ; Langages et programmation ; Algorithmique ; Architecture ; Réseaux ; Structuration et contrôle de l’information ; Bases de données relationnelles et Web. Les chapitres comportent une partie de cours présentant les concepts, d’exercices corrigés et non corrigés, d’une rubrique consacrée aux questions d’enseignement, et de compléments permettant d’aller plus loin, en particulier d’aborder quelques questions de société en liens avec la révolution informatique.

Le programme des élèves de Terminale S

Ce contenu reprend, sous une forme plus approfondie, les éléments du programme de la spécialité « Informatique et Sciences du numérique » proposée à la rentrée 2012 aux élèves de Terminale S et qui est construit autour des quatre notions fondamentales d’information, d’algorithme, de langage et de machine), notionss qui structurent les grands domaines de la science informatique.

  • Représentation de l’information
    • Représentation binaire, opérations booléennes, numérisation, compression, structuration et organisation de l’information.
    • Ancrées dans les notions étudiées, des questions sociétales seront abordées : persistance de l’information, non-rivalité de l’information, introduction aux notions de propriété intellectuelle, licences logicielles.
  • Algorithmique
    • Des algorithmes simples (rechercher un élément dans un tableau trié par une méthode dichotomique) et plus avancés (recherche d’un chemin dans un graphe par un parcours en profondeur) seront présentés.
  • Langages de programmation
    • Types de données, fonctions, correction d’un programme, langages de description (présentation du langage HTML).
  • Architectures matérielles
    • Architectures des ordinateurs : éléments d’architectures, présentation des composants de base (unité centrale, mémoires, périphériques.), jeu d’instructions.
    • Réseaux : transmission série – point à point – (présentation des principes, introduction de la notion de protocole), adressage sur un réseau, routage.
    • La question de la supranationalité des réseaux sera abordée.
    • Initiation à la robotique

Quid du libre ?

La liberté des usagers de l’informatique, le contrôle des outils qu’ils utilisent supposent qu’ils comprennent et maîtrisent les concepts qui les sous-tendent. Un système d’exploitation, un traitement de texte ou un tableur sont des outils conceptuels compliqués et complexes de par les objets qu’ils traitent et la multitude de leurs fonctionnalités. Le libre, c’est-à-dire le code source que l’on connaît et non pas une approche en termes de « boîte noire » miraculeuse qui fait tout pour vous (curieuse d’ailleurs cette représentation mentale qu’ont certains de la prothèse du cerveau qu’est l’ordinateur, que l’on pourrait utiliser sans la connaître ni la comprendre), s’inscrit pleinement dans la vision qui considère que l’homme, le travailleur et le citoyen doivent avoir une culture générale informatique scientifique et technique.

C’est donc très naturellement que l’APRIL s’est félicité de la création de l’enseignement « Informatique et Sciences du numérique ». Le 5 janvier 2010, dans un communiqué de presse, rappelant qu‘« elle a toujours été favorable à ce que l’informatique soit une composante à part entière de la culture générale scolaire de tous les élèves sous la forme notamment d’un enseignement d’une discipline scientifique et technique », elle soulignait « cette première et importante avancée signe d’une certaine rupture ». Elle mentionnait que « l’expérience de ces dernières années a clairement montré que le B2i ne fonctionnait pas. Son échec prévisible tient notamment à des problèmes insolubles d’organisation, de coordination et de cohérence des contributions supposées et spontanées des disciplines enseignées. De plus ne sont pas explicitées les connaissances scientifiques et techniques correspondant aux compétences visées ».

D’une manière analogue, dans un communiqué le 23 mars 2010, l’AFUL faisait des propositions pour l’Ecole à l’ère numérique parmi lesquelles : « L’informatique devient une discipline à part entière, dont l’enseignement obligatoire dès le primaire est réalisé par des professeurs ayant le diplôme requis dans cette spécialité ou ayant bénéficié d’une formation qualifiante. La gestion des compétences, l’accompagnement des enseignants et la formation initiale et continue font l’objet du plus grand soin. ».

Gilles Dowek et Jean-Pierre Archambault

Remarque : En réponse aux commentaires ci-dessous, les auteurs ont choisi publié un nouvel article qui précise et complète un certains nombres de points évoqués ici.

Notes

[1] On peut le commander en suivant ce lien. On le trouvera également dans les librairies du CNDP, des CRDP et des CDDP.

[2] Parmi ces publics, il y a les étudiants ainsi que les professeurs de la spécialité SIN « Système d’Information et Numérique » du Bac STI2D qui se met en place en classe de Première à la rentrée 2011, les professeurs de technologie au collège, ceux qui expérimentent des enseignements d’informatique dans certains lycées en seconde et/ou en première, ou qui gèrent les parcs informatiques des établissements scolaires.

[3] Avec le soutien de l’EPI et de l’ASTI.

[4] Jean-Pierre Archambault (Chargé de mission au CNDP-CRDP Paris), Emmanuel Baccelli (Chargé de Recherche à l’Institut National de Recherche en Informatique et en Automatique), Sylvie Boldo (Chargée de Recherche à l’Institut National de Recherche en Informatique et en Automatique), Denis Bouhineau (Maître de Conférences à l’Université Joseph Fourier, Grenoble), Patrick Cégielski (Professeur à l’Université Paris-Est Créteil), Thomas Clausen (Maître de Conférences à l’École polytechnique), Gilles Dowek (Directeur de Recherche à l’Institut National de Recherche en Informatique et en Automatique), Irène Guessarian (Professeur émérite à l’Université Pierre et Marie Curie, chercheur au Laboratoire d’Informatique Algorithmique : Fondements et Applications), Stéphane Lopès (Maître de Conférences à l’Université de Versailles St-Quentin), Laurent Mounier (Maître de Conférences à l’Université Joseph Fourier, Grenoble), Benjamin Nguyen (Maître de Conférences à l’Université de Versailles St-Quentin), Franck Quessette (Maître de Conférences à l’Université de Versailles St-Quentin), Anne Rasse (Maître de Conférences à l’Université Joseph Fourier, Grenoble), Brigitte Rozoy (Professeur à l’Université de Paris-Sud), Claude Timsit (Professeur à l’Université de Versailles St-Quentin), Thierry Viéville (Directeur de Recherche à l’Institut National de Recherche en Informatique et en Automatique),




Quand le patron de Google donne la leçon à l’Angleterre sur l’éducation

Rex Pe - CC byLittéraire ou scientifique ? Non, littéraire et scientifique !

La fameuse séparation culturelle française semble également de mise en Angleterre. Et selon le Directeur exécutif de Google, Eric Schmidt, elle est fortement handicapante dans le monde d’aujourd’hui.

Il est quelque part étrange de voir une multinationale faire la leçon à un État. Mais telle est l’époque dans laquelle nous vivons, et le pire c’est que Schmidt a raison. La critique fait mal pour un pays qui a été si innovant par le passé.

Il juge en outre tout à fait incohérent de ne pas enseigner l’informatique à l’école[1] pour comprendre comment les logiciels sont conçus plutôt que de se contenter de savoir les utiliser.

La situation est peu ou prou identique en France. Et nous risquons fort d’accompagner, voire devancer, la Perfide Albion dans sa chute si nous n’y faisons rien[2].

Eric Schmidt, président de Google, critique vertement le système éducatif britannique

Eric Schmidt, chairman of Google, condemns British education system

James Robinson – 26 août 2011 – The Guardian
(Traduction Framalang : DéKa)

Schmidt critique la division entre les sciences et les arts et lettres et affirme que le Royaume-Uni « devrait revenir sur les heures de gloire de l’ère victorienne ».

Le président de Google a très violemment critiqué le système éducatif britannique soutenant que le pays a échoué à exploiter sa position dominante en matière d’innovation technique et scientifique.

Au cours de la conférence annuelle Mac Taggard à Edimbourg, Eric Schmidt a évoqué « une dérive vers les sciences humaines » et a critiqué l’émergence de deux champs antagonistes « se dénigrant l’un l’autre, autrement dit, pour reprendre une expression locale, vous êtes soit un lettré, soit un matheux ».

Schmidt s’en est également pris à Lord Sugar, haut responsable du Parti travailliste et star du programme de la BBC The Apprentice, qui a récemment déclaré au cours de l’émission que les « ingénieurs n’étaient pas de bons commerciaux ». Schmidt a confié au MediaGuardian Edinburgh international TV festival : « Au cours du siècle dernier, la Grande Bretagne a brusquement cessé de former et d’encourager ses polymathes. Il faut à nouveau réunir les sciences et les arts ».

Ce vétéran de la technologie, qui a rejoint Google il y a dix ans pour aider les fondateurs Larry Page et Sergey Brin à développer la société, soutient que l’Angleterre devrait se pencher sur ses « heures de gloire » de la période victorienne pour se rappeler que les deux disciplines peuvent travailler ensemble.

« Il fut un temps où c’était les mêmes personnes qui écrivaient des poèmes et fabriquaient des ponts », dit-il, « Lewis Carroll n’a pas uniquement écrit l’un des contes les plus célèbres au monde. Il était également professeur de mathématiques à Oxford. Et Einstein disait de James Clerk Maxwell qu’il n’était parmi seulement l’un des meilleurs physiciens depuis Newton mais aussi un poète confirmé. »

Les commentaires de Schmidt font écho à ceux de Steve Jobs, qui a révélé cette semaine qu’il cessait son activité au sein d’Apple. Ce dernier a un jour confié au New York Times que « si le Macintosh a eu un tel succès c’est parce que les gens qui ont participé à sa conception étaient des musiciens, des artistes, des poètes et des historiens, qui se trouvaient être également d’excellents informaticiens ». Schmidt a rendu hommage à la si réputée innovation britannique, rappelant que le Royaume-Uni avait « inventé les ordinateurs aussi bien en théorie qu’en pratique », avant de souligner que le premier ordinateur de bureau « a été construit en 1951 par J. Lyons, originellement une chaîne de magasin de thé ».

« Cependant », dit il, « le Royaume-Uni n’a pas réussi à concrétiser ses idées pour créer de durables industries dominantes sur le marché ».

« Le Royaume-Uni est le berceau de temps d’inventions liées au médias. Vous avez inventé la photographie. Vous avez inventé la télévision », dit-il, « Pourtant aujourd’hui aucun des grands leaders de ces deux domaines ne provient du Royaume-Uni ». Et d’ajouter : « Merci pour vous innovations et vos brillantes idées. Vous n’en tirez cependant aucun bénéfice à l’échelle mondiale ».

Selon lui, les start-ups britanniques d’une certaine dimension ont toujours fini par se vendre à des sociétés étrangères, alors que c’est le contraire qui devrait se produire. « Le Royaume-Uni apporte un réel soutien à ses petites et moyennes entreprise, mais il n’y a pas grand intérêt faire germer des milliers de graines si c’est pour les laisser dépérir ou les transplanter à l’étranger. Les entreprises britanniques ont besoin d’être défendues pour pouvoir se faire une place sur le marché international, sans avoir à se vendre à des sociétés étrangères. Si vous ne relevez pas ce défi, le Royaume-Uni sera toujours le berceau de l’invention, mais pas du succès à long terme. »

Schmidt a expliqué qu’à force de ne pas enseigner la programmation à l’école, le pays inventeur de l’ordinateur était en train de « se débarrasser d’un important héritage informatique ». « J’étais sidéré », dit-il, « d’apprendre qu’il n’existe même pas d’enseignement de base de l’informatique dans les écoles britanniques aujourd’hui. Votre programme de technologie se concentre sur la manière d’utiliser un logiciel, mais n’explique pas comment il a été conçu. »

Barack Obama a annoncé en juin que les Etats-Unis formeraient 10 000 ingénieurs en plus par an. « J’espère que d’autres vont suivre. Le monde a besoin de plus d’ingénieurs », a continué Schmidt. « Pour que les entreprises innovantes britanniques puissent s’épanouir dans l’avenir digital, vous allez avoir besoin de gens capables de comprendre toutes ses facettes. Prenez exemple sur les Victoriens et ignorez les préjugés d’un Lord Sugar : Intégrez des ingénieurs dans vos sociétés à tous les niveaux, même les plus élevés. »

Notes

[1] Crédit photo : Rex Pe (Creative Commons By)

[2] On pourra également lire l’article de Slate.fr La programmation pour les enfants: et pourquoi pas le code en LV3 ?




Les enfants Montessori et le logiciel libre partagent de nombreux points commmuns

Brian Glanz - CC by-saNée dans un quartier pauvre de Rome il y a plus d’un siècle, l’originale pédagogie Montessori n’a jamais cessé d’essaimer et connaît même un fort regain d’intérêt à l’aube de ce nouveau millénaire qui nous demande une solide capacité d’adaptation aux changements.

Les fondateurs de Google ont été dans une école Montessori. Et le créateur du cèlèbre jeu SimCity en parle en ces termes : « Montessori m’a enseigné la joie de la découverte. Cela m’a montré que l’on pouvait s’intéresser à des théories complexes, comme celles de Pythagore par exemple, en jouant avec des cubes. Il s’agit d’apprendre pour soi-même plutôt que de recevoir l’enseignement du professeur. SimCity est directement issu de Montessori – si vous donnez aux gens ce modèle de construction des villes ils en tireront les principes de l’urbanisme ».

Michael Tiemann, figure du logiciel libre travaillant chez Red Hat mais aussi jeune papa, tente ici de rapprocher les deux domaines parce qu’il y voit de nombreux points communs. L’une de ses hypothèses est qu’un enfant qui aura suivi une méthode Montessori sera plus à même de comprendre, s’intéresser et s’impliquer dans le logiciel libre[1].

Par extension et extrapolation, sera-t-il plus à même de comprendre, s’intéresser et s’impliquer dans le monde d’aujourd’hui mais surtout de demain ?

Remarque personnelle : Je constate que de plus en plus de parents « bobos de gauche urbains » placent leurs enfants dans des écoles privées Montessori, pour l’épanouissement général de l’enfant mais aussi pour échapper à la carte scolaire et l’école publique du quartier.

Montessori et la voie de l’Open Source

Michael Tiemann – 12 août 2011 – OpenSource.com
(Traduction Framalang : ZeHiro et Mammig2)

Montessori and the open source way

J’ai lu avec grand plaisir l’article de Steve Denning « Montessori est-il à l’origine de Google et Amazon ? ». Son argumentaire est solide, il s’appuie sur de nombreux faits scientifiques, et il expose les résultats remarquables que l’on peut obtenir quand nous pouvons Faire confiance à l’enfant. Il écrit si bien et de façon si claire qu’il est inutile que je répète ses propos, vous pouvez (et devriez !) lire directement son article. Mais nous pouvons le compléter, en particulier en comprenant comment les principes et la philosophie de l’open source sont si proches de la méthode éducative de Montessori.

C’est en tant que parent, et assez tardivement, que j’ai découvert l’éducation Montessori. Au début, je ne connaissais strictement rien aux travaux de Montessori, mais l’école de ma fille prenait très au sérieux ses écrits et j’ai ainsi commencé à voir les liens profonds et étroits entre des activités scolaires en apparence simples. Après avoir lu La science derrière le génie, le schéma complet m’est apparu plus clairement, et depuis je suis devenu un fervent partisan de la méthode Montessori.

La thèse Faire confiance à l’enfant, développée par Montessori, repose sur l’idée d’accompagner le développement de l’individu. Montessori a montré que lorsque des enfants sont privés de la possibilité de faire leurs propres choix, alors leur personnalité ne se développe pas complètement, et ils peuvent dépendre beaucoup trop des autres pour prendre des décisions les concernant. Par analogie, l’open source permet à tous les participants, qu’ils soient utilisateurs, développeurs, distributeurs ou mainteneurs de devenir de vrais contributeurs. Cette opportunité encourage non seulement à améliorer le logiciel (dont la qualité peut être perçue comme 100 fois supérieure à celle des logiciels propriétaires), et le plus important est qu’il encourage également les individus à s’améliorer. C’est ce que j’ai pu constater en étant dans l’open source depuis plus de vingt ans et en tant que parent Montessori depuis dix ans.

“Faire confiance à l’enfant” ne se limite pas à observer ce que fera un enfant dans le cadre d’un programme éducatif imposé. Dans l’éducation Montessori, tout l’environnement est disponible pour étudier, et les enfants sont encouragés à passer du temps à l’extérieur, pour observer, inventorier, s’interroger, et chercher les connaissances nécessaires pour répondre à leurs questions. La démarche scientifique est modulaire et évolutive, c’est à dire que des résultats sont obtenus à partir de résultats qui proviennent eux-mêmes d’autres résultats.

Ces résutats scientifiques doivent être reproductibles ou bien ils ne sont pas scientifiquement acceptables. De façon similaire, la modularité naturelle des logiciels open source fait qu’ils deviennent eux-même une forme de science de la programmation. Les modules peuvent être aussi librement utilisés que les résultats scientifiques peuvent être librement reproduits. Et tout comme un grand scientifique essayera de rendre ses résultats aussi simples et accessibles que possible, il existe une forme de reconnaissance similaire pour ceux qui écrivent des logiciels qui sont le plus possible généralistes, portables, et techniquement transparents.

Une valeur primodiale de la méthode Montessori est que l’apprentissage devrait être l’affaire de toute une vie. Denning paraphrase ceci en disant que l’éducation n’est pas une destination mais un voyage. Denning observe également que ceux qui voient dans l’obtention de leurs diplômes universitaires le boût du chemin, se retrouvent dans une impasse en cas de changement. Pour ceux qui envisagent l’apprentissage comme un exercice de longue haleine, alors le changement est simplement une nouvelle opportunité d’apprendre. De la même façon, les logiciels open source ont tendance à avoir un avenir ouvert et en perpétuel développement. De nombreux logiciels et frameworks propriétaires s’élèvent puis chutent car ils sont conçus avec une idée d’achèvement. Au contraire, les logiciels open source sont constament re-écrits, re-inventés et leurs objectifs modifiés. En regardant l’évolution de Linux au court des vingt dernières années je me suis dit : a-t-il déjà existé un système d’exploitation qui ait autant évolué, aussi rapidement et soit allé aussi loin ? Voilà tout le génie d’une vision de l’apprentissage à long terme.

Un dernier point : Les enfants Montessori sont-ils enthousiastes à l’idée de mettre les mains dans le code source ? La réponse evidente vous fournira, s’il en était besoin, une ultime preuve des atomes crochus entre Montessori et l’open source.

Notes

[1] Crédit photo : Brian Glanz (Creative Commons By-Sa)




Librologie 2 : Linus a gagné

Bonjour à tous et à toutes, ami(e)s du Framablog !

Par un heureux hasard du calendrier, la publication de cette nouvelle chronique Librologique coïncide avec le vingtième anniversaire du noyau Linux. Après nous être intéressés à Richard Stallman, c’est donc le moment idéal pour nous pencher sur une autre personnalité marquante du logiciel Libre… Quant à moi, je vous retrouve la semaine prochaine… et d’ici là, dans les commentaires !

V. Villenave.

Librologie 2 : Linus a gagné

Martin Streicher_- CC by-sa - Wikimedia CommonsIl y a tout juste vingt ans, un jeune étudiant en informatique finlandais, Linus Torvalds[1], publie un bout de programme qui deviendra plus tard le noyau du système d’exploitation le plus répandu au monde.

Plus ou moins fortuite, cette édification se fera par tâtonnements mais Linus sait ce qu’il veut et ne se prive pas de le faire savoir : au fil des ans, il se fera remarquer par un nombre impressionnant de citations toujours abruptes, souvent désopilantes, qui en sont venues à constituer sa marque de fabrique, voire sa persona : lire un message de Linus sans pique ni acidité, est toujours décevant.

Parmi ses souffre-douleurs de prédilection, on trouve des programmes (Emacs, GNOME), des techniques de programmation (le langage C++, les micronoyaux, le système de fichiers HFS+), et des entreprises (SCO, Oracle, Microsoft). Il est particulièrement réjouissant pour tout Libriste de voir Torvalds s’en prendre à l’empire de Microsoft, dont la domination hégémonique sur les systèmes d’exploitation remonte aux origines de l’informatique personnelle (et dont la haine des principes Libres n’est plus à démontrer) :

Je vous assure que mon but n’est pas de détruire Microsoft. Ce sera un effet collatéral tout à fait involontaire.

Ou, dans un même ordre d’idées :

Le jour où Microsoft développera des applications pour Linux, cela voudra dire que j’aurai gagné.

Le noyau Linux a donc été fondé il y a plus de vingt ans, et vient d’atteindre sa troisième version majeure. Se combinant avec d’autres programmes du projet GNU, il forme le système d’exploitation GNU/Linux qui s’est répandu dans le monde, particulièrement dans les domaines des serveurs et des supercalculateurs, qu’il domine très largement. Sous une forme plus réduite, le noyau Linux est également embarqué dans la grande majorité des équipements informatiques domestiques et professionnels : télévisions, box Internet, ordinateurs de bord… Enfin il s’est aussi emparé des téléphones mobiles, en particulier avec le système Android développé par l’entreprise Google.

Ce dernier point est d’une actualité brûlante, puisqu’Android est en pleine ascension et dépasse à la fois les mobiles proposés par Microsoft et les iPhone® d’Apple. Les applications Android se multiplient et sont devenues un format de distribution incontournable… y compris pour les concurrents de Google… ce qui inclut Microsoft.

Ce qui nous renvoie, comme l’ont remarqué de nombreux commentateurs ces derniers jours, à la citation que nous évoquions à l’instant :

Android Market - Microsoft

Le paysage a changé. Les marchés à conquérir ne se situent plus sur le bureau des utilisateurs, mais dans les téléphones portables et le « nuage » des services Internet. Microsoft n’a plus, aujourd’hui, d’autre choix que de présenter des applications pour Android, et même de contribuer au code de Linux. Il tire davantage de profit des ventes d’Android que de son propre système d’exploitation mobile.

En d’autres termes, nous y sommes : Linus a gagné.

Ce qui explique l’enthousiasme des Libristes et inconditionnels de l’open source. Le projet Linux, rappelons-le, est développé par une communauté d’informaticiens du monde entier, dont beaucoup sont financés par de grandes entreprises (voir plus bas), mais dont une proportion conséquente est faite de bénévoles qui gagnent leur vie dans des domaines parfois étrangers à l’informatique. De là à voir en la personne de Linus Torvalds un hérault du pro-am il n’y a qu’un pas : la victoire de Linus sur Microsoft serait ainsi une revanche de l’illégitimité.

Joie et liesse : Linus a gagné.

Certes, mais à quel prix ?

D’un point de vue technique, le système Android est certes construit sur le noyau Linux, mais il y apporte une surcouche sous une licence différente, qui ne garantit pas la réciprocité du logiciel Libre digne de ce nom. Des commentateurs ont d’ailleurs fait remarquer combien le développement d’Android diffère de celui de Linux en particulier, et des logiciels Libres en général.

D’un point de vue éthique, le noyau Linux est resté sous la version 2 de la licence GPL, ce qui autorise bien des abus d’un point de vue Libriste : des versions modifiées peuvent en être distribuées sans nécessairement rendre publiques lesdites modifications, les serveurs sous GNU/Linux servent à des sites qui privatisent les données, et assujettissent leurs utilisateurs. Linux a sans doute « gagné », mais certainement pas les libertés civiques — même si le PDG de la Linux Foundation s’en défend.

Linux Mask - Linus TorvaldsCe qui nous invite à nous interroger sur les modalités d’expression de la persona publique de Linus Torvalds. D’une génération (et d’une culture politique) différente de celle de Richard Stallman, il s’oppose volontiers à ce dernier, notamment sur le plan terminologique (dont nous avons vu combien il importe à rms). Parangon du mouvement open source, il se construit une persona inversée (et donc symétrique) de celle de Stallman, et se décrit complaisamment comme non-idéologue et « pragmatiste » — qualificatif que Stallman lui-même, paradoxalement, revendique également — nous y reviendrons.

Attardons-nous un instant sur cette posture à travers trois fragments relativement longs du discours de Torvalds, dont nous allons voir qu’il va bien au-delà des citations-choc.

Je ne crois pas qu’il y ait d’idéologie (dans le projet Linux), et je ne crois pas qu’il *devrait* y avoir d’idéologie. Et ce qui compte ici, c’est le singulier — je pense qu’il peut exister *beaucoup* d’idéologies. Je le fais pour mes propres raisons, d’autres gens le font pour les leurs. Je pense que le monde est un endroit compliqué, et que les gens sont des animaux intéressants et compliqués qui entreprennent des choses pour des raisons complexes. Et c’est pour cela que je ne crois pas qu’il devrait y avoir *une* idéologie. Je pense qu’il est très rafraîchissant de voir des gens travailler sur Linux parce qu’ils peuvent rendre le monde meilleur en propageant la technologie et en la rendant accessible à plus de monde — et ils pensent que l’open source est un bon moyen d’accomplir cela. C’est _une_ idéologie. Et une excellente, pour moi. Ce n’est pas vraiment pour cette raison que j’ai entrepris Linux moi-même, mais cela me réchauffe le cœur de le voir utilisé en ce sens. Mais je pense _aussi_ qu’il est génial de voir toutes ces entreprises commerciales utiliser de l’open source tout simplement parce que c’est bon pour les affaires. C’est une idéologie entièrement différente, et je pense qu’elle est, elle aussi, parfaitement acceptable. Le monde serait _nettement_ pire si l’on n’avait pas d’entreprises réalisant des choses pour de l’argent. Aussi, la seule idéologie qui m’inspire vraiment du mépris et de l’aversion est celle qui consiste à exclure toutes les autres. Je méprise les gens dont l’idéologie est « la seule véritable », et pour qui s’éloigner de ces règles morales en particulier est « mal » ou « malfaisant ». Pour moi, c’est juste mesquin et stupide. Donc, le plus important dans l’open source, n’est pas l’idéologie — il s’agit simplement que tout le monde puisse l’utiliser pour ses propres besoins et ses propres raisons. La licence de copyright sert à maintenir en vie cette notion d’ouverture, et à s’assurer que le projet ne se fragmente pas au fil des gens qui garderaient cachées leur améliorations, et donc doivent ré-inventer ce qu’ont fait les autres. Mais la licence n’est pas là pour imposer telle ou telle idéologie.

Ces propos de Torvalds méritent d’être ici reproduits in extenso. Tout d’abord parce qu’ils suffisent à mettre en mouvement notre détecteur de mythes : on y retrouve une vision prétendument « naturelle » des choses, ainsi qu’une propension à s’abstraire de toute implication ou responsabilité éthique : « le mythe, écrit Roland Barthes, est une parole dépolitisée ». Et de fait, il n’est pas rare qu’un discours qui rejette toute idéologie ait pour fonction de masquer une idéologie sous-jacente, le plus souvent contre-révolutionnaire : nous y reviendrons prochainement.

Est-ce le cas ici ? Linus Torvalds prête certainement le flanc à de telles accusations, en particulier dans ses rapports vis-à-vis des grandes entreprises (le développement de Linux, et le salaire de Linus lui-même, a fait l’objet de nombreux financements d’entreprises, en particulier IBM).

Cependant son point de vue ne me semble pas dépourvu d’ambiguïtés : ainsi, loin de les rejeter, il prend acte des motivations « idéologiques » de certains contributeurs et utilisateurs, et s’en déclare même proche.

Autre ambiguïté primordiale : Torvalds est, et demeure, cet informaticien brillant qui prit un jour la décision, là où rien ne l’y obligeait, de publier son travail sous une licence Libre (la GPL), dans le but explicite d’ouvrir au monde entier, sans distinction de provenance ni de capital, des outils techniques (et par extension, une forme de connaissance, comme nous allons également le voir) :

À l’origine, explique-t-il en 1997, j’avais publié Linux et son code source complet sous un copyright qui était en fait bien plus contraignant que la GPL : il n’autorisait aucun échange d’argent quel qu’il soit (c’est-à-dire que non seulement je ne voulais pas essayer d’en tirer profit moi-même, mais j’interdisais à quiconque de le faire).

(…)

Je voulais que Linux soit aisément disponible sur ftp, et je voulais qu’il ne soit onéreux pour _personne_. (…) Je ne me sentais pas rassuré vis-à-vis de la GPL au début, mais je voulais témoigner ma reconnaissance pour le compilateur GCC (du projet GNU) dont Linux dépendait, et qui était bien sûr GPL.

Rendre Linux GPL est sans aucun doute la meilleure chose que j’aie jamais faite.

Les paradoxes ne manquent pas ici, à commencer par cette reconnaissance qu’exprime spontanément Linux Torvalds envers le projet GNU, lui qui se refusera pourtant toujours à dire « GNU/Linux » plutôt que seulement « Linux » pour désigner le système d’exploitation Libre… Autre paradoxe intéressant au plus haut point : nous voyons ici que c’est la licence GNU GPL qui est venue libérer Linus lui-même de ses craintes, en particulier vis-à-vis de l’exploitation commerciale de son travail.

Le dernier fragment sur lequel je voudrais m’arrêter ici est une interview recueillie dix ans plus tard, sur laquelle Torvalds revient sur sa (non-) « idéologie » personnelle :

Je pense que l’open source est la bonne voie à suivre, de la même façon que je préfère la science à l’alchimie : tout comme la science, l’open source permet aux gens d’ajouter leur pierre à l’édifice solide de la connaissance pré-existante, plutôt que de se cacher de manière ridicule.

Cependant je ne crois pas qu’il faille considérer l’alchimie comme « malfaisante ». Elle est juste hors de propos : on ne pourra évidemment jamais réussir aussi bien barricadé chez soi qu’au grand jour avec des méthodes scientifiques.

C’est pourquoi la FSF (de Richard Stallman) et moi divergeons sur des notions fondamentales. J’adore absolument la GPL version 2 — qui incarne ce modèle de « développer au grand jour ». Avec la GPL v.2, nous tenions quelque chose où tout le monde pouvait se retrouver et partager selon ce modèle.

Mais la FSF semble vouloir changer ce modèle, et les ébauches de la GPL version 3 ne servent plus à développer du code au grand jour mais à déterminer ce que l’on peut faire de ce code. Pour reprendre l’exemple de la science, cela reviendrait à dire que non seulement la science doit être ouverte et validée par des pairs, mais qu’en plus on vous interdit de vous en servir pour fabriquer une bombe.

Et ce dernier exemple de « fabriquer des bombes » donne lieu, à son tour, à un nouveau paradoxe : les arguments soulevés ici par le créateur du noyau Linux trouvent un écho frappant dans certaines prises de position de… Richard Stallman. J’en veux pour illustration la critique toute pragmatique que fait la FSF d’une licence « Hacktiviste », la HESSLA, dont le propos est précisément d’interdire tout usage des logiciels qui ne serait pas conforme aux droits de l’Homme (dans un même ordre d’idées, on lira avec intérêt la licence CrimethInc. N© !, que je découvre à l’instant et qui vaut également son pesant de cacahuètes). Un autre exemple du pragmatisme de Stallman est à trouver dans la migration de Wikipédia vers les licences Creative Commons en 2008.

Le pragmatisme n’est donc pas nécessairement une posture de mercenaire, et le discours de Linus Torvalds (particulièrement si on le considère sur les deux décennies écoulées) me semble plus ambigu que celui d’un programmeur sans éthique ou d’un entrepreneur sans foi ni loi. Certes, Torvalds n’est ni un intellectuel ni un philosophe, et sa culture politique semble celle d’un simple spectateur. Cependant son propos apparaît comme pleinement politique, même lorsqu’il s’agit d’affirmer la neutralité idéologique du code qu’il écrit :

Je n’aime pas les DRM moi-même, mais en fin de compte je me vois comme un « Oppenheimer ». Je refuse que Linux soit un enjeu politique, et je pense que les gens peuvent utiliser Linux pour tout ce qu’ils veulent — ce qui inclut certainement des choses que je n’approuve pas personnellement.

La GPL exige qu’on publie les sources du noyau, mais ne limite pas ce qu’on peut faire avec le noyau. Dans l’ensemble, ceci est un exemple de plus de ce pourquoi rms me traite de « seulement un ingénieur », et pense que je n’ai pas d’idéaux.

(En ce qui me concerne, ce serait plutôt une vertu : essayer d’améliorer le monde un tant soit peu sans essayer d’imposer ses propres valeurs morales aux autres. Vous pouvez faire ce qui vous chante, je m’en fous, je suis seulement un ingénieur qui veut faire le meilleur système d’exploitation possible.)

Cette position me renvoie à la phrase faussement attribuée à Voltaire sur la liberté d’expression (« je ne suis pas d’accord avec ce que vous dites, mais je me battrai jusqu’à la mort pour que vous ayez le droit de le dire »), et qui est en fait d’origine anglo-saxonne. L’on sait combien cet esprit post-Lumières (d’ailleurs plus ou moins bien compris), qui défend la liberté comme un absolu, est important aux États-Unis : peut-être n’est-ce pas un hasard si c’est dans ce pays qu’est né le mouvement Libre… Et si c’est de ce même pays que Torvalds a récemment acquis la nationalité.

Alors, Linus a-t-il gagné ? Pour un personnage aussi marquant et aussi vocal, il est étrange qu’on ne l’ait que très peu entendu s’exprimer sur l’avènement d’Android. La sortie du noyau Linux version 3, coincidant avec le 20e anniversaire du projet, s’est faite dans le calme et avec une humilité remarquable, et j’avoue n’avoir vu passer aucun message de Linus Torvalds revendiquant sa « victoire » — laquelle est pourtant acquise et incontestable, pour douce-amère qu’elle puisse être par ailleurs.

Linux a gagné, mais seulement en se rendant acceptable par les entreprises : c’est-à-dire sous une forme dégradée, aseptisée, dépolitisée dirait Barthes, débarrassée du « bazar » idéologique que représente le mouvement Libre, et que d’aucuns (à commencer par Richard Stallman) voient comme essentiel. Essentiel d’un point de vue intellectuel, puisque le mouvement Libre se pense originellement comme un mouvement social ; primordial également d’un point de vue affectif, le logiciel et la culture Libre reposant souvent sur des communautés de bénévoles dont la motivation n’est jamais tout à fait exempte de composantes idéalistes ou romantiques — et auxquelles Linus lui-même, nous l’avons vu, n’a pas toujours été étranger.

Ce sont ces valeurs et cet esprit que voile, sous l’aspect d’une victoire technique, l’avènement du noyau Linux sous ses avatars et déclinaisons plus ou moins lointaines. Et la victoire que promettait le jeune Linus d’il y a vingt ans, semble aujourd’hui faire tristement défaut au triomphe d’un Torvalds quadragénaire.

Notes

[1] Crédit photo : Martin Streicher (Creative Commons By-Sa)




L’Open Data au service de l’humanitaire grâce à OpenStreetMap

HOT Logo - OpenStreetMapC’est un billet très HOT que nous vous proposons aujourd’hui. Mais HOT pour Humanitarian OpenStreetMap Team.

Le projet de cartographie libre OpenStreetMap vous connaissez déjà je suppose ? (sinon vous pouvez parcourir ce billet ou notre tag du même nom). Mais peut-être ignoriez-vous son projet spécifique dédié à l’humanitaire en cas d’urgence ?

C’est l’objet de cette interview traduction.

C’est pas pour dire, mais, un jour, tous ces projets positifs (et souvent d’inspiration libriste) vont finir par faire sens et nous sortir du marasme actuel…

Remarque : En fin d’article nous vous proposons de revoir un passage télé évoquant le projet et l’utilité d’OpenStreetMap en pleine crise d’Haïti.

L’Open Data au service du secours humanitaire grâce à l’équipe dédiée d’OpenStreetMap

Open data for humanitarian relief with the Humanitarian OpenStreetMap Team

Jason Hibbets – 18 juillet 2011 – OpenSource.com
(Traduction Framalang : Slystone, ZeHiro, Goofy, Padoup-padoup)


Il fait chaud (hot) en Haïti, en Indonésie, en Côte d’Ivoire, et dans d’autres pays autour du monde. Pourquoi ? Parce que Kate Chapman, l’équipe humanitaire OpenstreetMap (NdT : HOT pour Humanitarian OpenStreetMap Team), ainsi que beaucoup de bénévoles contribuent à améliorer les économies locales et à créer une carte libre et gratuite du monde.

À la rencontre SouthEast LinuxFest qui s’est tenue au début de l’année, j’ai appris l’existence du projet humanitaire OpenStreetMap à l’occasion d’une conférence donnée par Leslie Hawthorn sur les outils gratuits et libres destinés à l’action humanitaire.

HOT reprend les principes de l’open source et du partage libre de données pour l’aide humanitaire et le développement économique, en tirant parti des efforts de OpenstreetMap. Kate Chapman est directrice du projet. Son rôle est de mettre en place l’organisation mais aussi la contribution aux projets. Elle travaille pour lever des fonds, exécuter les tâches administratives, gérer le budget, et enfin aller sur le terrain pour y tenir des ateliers. Kate nous en a dit plus sur le projet HOT dans l’interview ci-dessous.

Quelle est la mission de l’équipe humanitaire OpenstreetMap ?

HOT croit que des données géographiques libres et à jour peuvent être indispensables pour réagir face à un désastre. Donc nous aidons des communautés et des intervenants d’urgence qui d’une part utilisent les données d’OpenStreetMap et d’autre part contribuent en même temps au projet.

Quel a été l’impact du projet humanitaire OpenStreetMap sur des régions atteintes par un désastre (par exemple en Haïti ou en Côte d’Ivoire) ?

HOT a joué un rôle actif en Haïti, que ce soit à distance ou sur place par l’intermédiaire de missions. La communauté du projet OpenStreetMap a commencé par rechercher des images satellite et collecter des données issues de vieilles cartes pour mettre à jour la carte d’Haïti après le tremblement de terre. Puis à partir de mars 2010, nos équipes ont commencé à se rendre en Haïti pour former directement les gens à la mise à jour d’OpenStreetMap et à son utilisation. Ainsi, la communauté OpenStreet Map d’Haïti (COSMHA) s’est développée et poursuit le travail de cartographie de la région avec le soutien de HOT quand cela est nécessaire.

En Côte d’Ivoire, notre travail s’est fait entièrement à distance. Un de nos membres, Frederic Bonifas, a fourni la plus grosse contribution à l’effort de coordination pour ce projet. SPOT (une entreprise française de satellites) a joué un rôle vital en mettant à disposition sous licence libre des images que des personnes ont pu utiliser pour compléter les données d’OpenStreetMap.

Cependant, HOT n’existe pas que pour les cas d’urgence. On a commencé des travaux d’anticipation en Indonésie cette année. Jeff Hack et moi-même passons en ce moment deux mois en Indonésie pour tenir des ateliers dans des communautés et des universités. Nous espèrons ainsi recueillir des informations détaillées sur les bâtiments et les utiliser pour mieux anticiper les scénarios catastrophes.

Quelles sont les technologies ou les autres défis qui se présentent à vous ?

Le problème des licences a été le plus gros défi pour HOT. Après un afflux d’images en provenance d’Haïti, les cartes d’OpenStreetMap ont pu être misees à jour sans problème. En cas de catastrophes, il est parfois difficile de réagir rapidement lorsqu’il n’y a pas d’images satellite ou d’autres types de de données disponibles qui peuvent être utilisées avec OpenStreetMap.

Est-ce que vous avez la possibilité de faire équipe pour travailler en collaboration avec les gouvernements des zones concernées ?

La réponse à cette question est : quelques fois. Que ce soit en Haïti ou en Indonésie, nous avons formé des personnes travaillant pour le gouvernement. Nous allons également bientôt commencer un programme au Togo pour anticiper les catastrophes, celui-ci impliquera directement le gouvernement togolais.

Détaillez-nous les étapes de l’assistance fournie par votre organisation en cas de désastre. Par exemple, si un ouragan devait arriver sur la côte, comment est-ce que vous aideriez ?

Chaque catastrophe est unique. Typiquement après une catastrophe on commence en premier à faire l’état des données disponibles. Cela veut dire se mettre en contact avec les fournisseurs d’images satellite, répondre aux agences, et faire des recherches sur internet en général. Puis d’habitude on essaye de trouver quelqu’un qui est capable de coordonner les efforts humanitaires. Après nombre de cataclysmes on a de nouveaux bénévoles, des individus variés qui sont intéressés par l’utilisation des données, d’autres qui ont besoin d’aide, ce qui importe c’est de s’assurer qu’ils obtiennent ce dont ils ont besoin.

OpenStreetMap en général est une organisation avec une communauté très impliquée, et son développement HOT conserve ce même caractère. Mais ici nous réagissons à des urgences, c’est pourquoi nous nous coordonnons pour être sûr qu’une personne à la tête peut diriger les efforts.

Rejoignez-nous

La manière la plus simple de participer à HOT c’est d’abord d’apprendre à éditer les données dans OpenStreetMap. Souvent, le meilleur moyen de le faire est de commencer à cartographier votre propre quartier. Ce n’est pas difficile de se familiariser avec les outils de base. Pour avoir une participation plus active à HOT, le mieux est de s’abonner aux listes de diffusion. C’est là que se passent les discussions entre les personnes qui font quelque chose pour aider sur tel ou tel événement ainsi que les annonces générales.

Bonus Track

Chronique d’Emmanuelle Talon (La Matinale de Canal+ – 18 janvier 2010) évoquant OpenStreetMap au moment du tremblement de terre d’Haïti de 2010.

—> La vidéo au format webm




Librologie 1 : Les mots interdits de Richard Stallman

Je vous ai présenté il y a peu ces Librologies, la nouvelle chronique que aKa m’a invité à tenir ici-même. Dans ce premier épisode je vous propose de nous intéresser au premier des Libristes : l’informaticien américain Richard Stallman, fondateur du mouvement Libre. Valentin Villenave[1].

Librologie 1 : Les mots interdits de rms

Qui de plus approprié pour cette première chronique Librologique, que Richard Stallman ? Né en 1953 — l’année même où paraissaient les premières Mythologies de Roland Barthes, auxquelles nous rendons ici hommage —, il est tout à la fois le premier auteur de logiciels tels qu’Emacs ou GCC, le fondateur du projet GNU, le co-auteur de la licence GPL et FDL, et par là l’instigateur du mouvement du logiciel Libre. Cependant, son apport a très tôt dépassé les frontières de l’informatique : on lui doit notamment la première ébauche de l’encyclopédie Libre Wikipédia, et sa page personnelle témoigne de la diversité de ses préoccupations : droits de l’Homme, libertés civiques, nouveautés scientifiques et patrimoine culturel…

Conférence Stallman - Affiche Utopia (Toulibre)Au confluent de nombreux phénomènes communautaires (qu’il a d’ailleurs lui-même suscités), la personne de Richard Matthew Stallman, communément désigné par ses initiales rms (en minuscules, ainsi qu’il sied aux informaticiens des années 1970 pour qui l’avènement du bas de casse sur les écrans informatiques représenta une vraie conquête), fait l’objet de ce que nous pourrions appeler un culte — terme sur lequel il convient de s’arrêter un instant.

Le culte est une expression-clé d’un certain parler-jeune, dans lequel le terme s’emploie indifféremment sous forme substantive ou adjectivale : ainsi, l’on parlera d’un « film culte » pour souligner à la fois le nombre et l’enthousiasme des fans, ainsi que pour conjurer un aspect historique ou anecdotique. Le culte est ainsi devenu un argument publicitaire usé jusqu’à la corde, et qui relève de l’auto-suggestion : l’engouement pour ce produit n’est pas un effet de mode : c’est un culte (qui se voit donc conférer une légitimité immémorielle, comparable aux millénaires qui ont façonné les grandes religions). On voit ici à l’œuvre le mécanisme exact de la « privation d’Histoire » que Roland Barthes observait dans ses Mythologies il y a plus d’un demi-siècle : le « culte » est un mythe.

Ce terme me semble directement emprunté à l’anglais, où il se confond avec l’idée de secte : particulièrement aux États-Unis, où n’importe quelle association cultuelle peut bâtir « sa » religion. Cette liberté religieuse (qui peut parfois prêter à confusion) a notamment été mise à profit dans la seconde moitié du XXe siècle par une certaine jeunesse contestataire ou iconoclaste : dès les années 1960 l’on comptera ainsi, entre autres, l’Église du SubGénie, le Discordianisme, ou le Pastafarianisme, l’église athée de la Licorne Rose Invisible (à laquelle votre serviteur se flatte d’appartenir)… ou plus récemment des cults directement inspirés par des films, tels que le Jediisme ou le Matrixisme — pour ne rien dire du Dudeisme !

Martin Bekkelund - CC by-saCertainement influencé par ces courants en son temps, et lui-même athée revendiqué, Richard Stallman s’est employé à subvertir à sa façon les codes des rituels religieux : ainsi de sa brillante idée de célèbrer, tous les 25 décembre,… l’anniversaire d’Isaac Newton. Il ne dédaigne pas non plus, à l’occasion, créer sa propre église autour de l’éditeur Emacs et de Saint-iGNUcius.

Subvertir une codification revient à la perpétuer : à ce titre, le culte de rms donne lieu à sa propre iconographie — laquelle n’a rien à envier à celle que Barthes observait autour de l’Abbé Pierre en 1953 (il y aurait beaucoup à dire, par exemple, sur la coiffure et la barbe de Stallman, mi-négligées mi-visionnaires). Cependant dans ce cas précis, le culte cède le pas au folklore : si de nombreux Libristes témoignent encore un grand respect à Richard Stallman, pour la plupart (et en particulier les générations ultérieures, celles de Linus Torvalds et de l’open-source sur lesquelles nous reviendrons prochainement) il n’est guère plus qu’un personnage haut-en-couleurs, une sorte de vieil oncle bougon et un peu radoteur que l’on tolère au repas de famille sans vraiment lui prêter attention.

Le site gnu.org est à ce titre riche d’enseignements. Longtemps maintenu dans un style extrêmement dépouillé (tout comme la page personnelle de Stallman que je mentionnais plus haut), il persiste à mettre l’accent sur le contenu plus que sur la forme, et contient notamment un grand nombre d’articles parfois arides, souvent rédigés par rms lui-même, dans une rubrique intitulée « philosophie ».

D'Arcy Norman - CC byUne des constantes du folklore stallmanien, qui marque (et amuse) toujours quiconque assiste à une des nombreuses conférences que rms donne chaque année, et ce quelle que soit la langue dans laquelle il s’exprime (anglais, français ou espagnol), est son souci maniaque de la terminologie employée. Non content de veiller à ne jamais utiliser certaines expressions (« open source », « propriété intellectuelle »), il en déconseille également l’usage à tout interlocuteur, spectateur lui adressant une question. Cette opposition se manifeste parfois avec véhémence, et dans une mise en scène largement ritualisée, à tel point qu’il n’est pas exclu que d’aucuns se fassent un malin plaisir de lui faire entonner sa routine : « non, n’employez pas ce mot, il ne faut pas, c’est incorrect ! » et ainsi de suite : le « culte » se fait alors apophatique.

En programmeur de talent, rms a donc pris soin de documenter ses propres choix terminologiques sur le site du projet GNU, dans un article intitulé Words To Avoid, traduit en français non par « mots à éviter » mais de façon plus adoucie (et verbeuse), par Mots et phrases prêtant à confusion, que vous devriez éviter (ou utiliser avec précaution).

  • On y trouve, bien évidemment, ses chevaux de bataille les plus courants (« open source », « propriété intellectuelle »), ainsi que d’autres termes assez évidents : l’emploi prédicatif du terme Photoshop®, le MP3.
  • D’autres termes sont liés à la définition de ce qu’est et n’est pas un logiciel Libre : gratuité, commercial, marché
  • Certains termes de propagande sont également démontés, qu’il s’agisse de slogans positifs (DRM, Trusted Computing, Cloud Computing) ou négatifs (vol, piratage).

Enfin, une certaine catégorie de termes me semble tout à fait remarquable : il s’agit de mots d’apparence inoffensive, naturelle pourrait-on dire, et couramment employés par les Libristes eux-même, mais derrière lesquels Richard Stallman débusque un empilement de présupposés qui, de fait, les orientent et en font des termes de propagande.

Ainsi, parler d’écosystème des logiciels Libres (ou de toute communauté humaine) révèle une attitude tout à fait comparable à la Norme bourgeoise que critiquait Barthes en son temps : c’est s’abstraire, sous l’apparence d’un regard scientifique extérieur porté sur un phénomène naturel, de toute responsabilité et de tout aspect éthique. C’est se mettre en retrait de la communauté humaine, et rester impassible alors que des prédateurs exterminent leurs congénères, que disparaissent « les droits de l’Homme, la démocratie, la paix, la santé publique, l’air et l’eau purs, les espèces en danger, les patrimoines traditionnels »… on le voit, le propos va ici bien au-delà de l’informatique.

Dans un autre ordre d’idées, parler de n’importe quel auteur comme d’un créateur n’est pas un choix anodin (particulièrement dans l’éthos anglo-saxon protestant) : c’est assimiler les auteurs ou artistes à des divinités — non pas pour leur attribuer une toute-puissance, mais pour les brandir comme prétexte afin d’exiger la soumission des citoyens (nous aurons l’occasion de revenir sur ce statut des auteurs dans la société bourgeoise, que Roland Barthes démonte savoureusement dans son texte L’Écrivain en vacances). rms recommande aussi, depuis peu, de ne pas parler de rémunération des artistes : ce serait sous-entendre, selon lui, que de l’argent leur est systématiquement et moralement dû, de même que la divinité appelle l’offrande.

Avec cette même optique, Stallman critique enfin (comme d’autres après lui) un autre travers contemporain qui consiste à désigner les œuvres de l’esprit sous le terme de contenu. Ce terme peut s’employer, semble-t-il, indifféremment au singulier ou au pluriel — un peu comme, dans les entreprises, le terme « personnel », autre parangon méprisant du parler moche. Ce qui m’intéresse ici est bien sûr l’idéologème qu’il recouvre, et qui constituera l’une des thématiques récurrentes de ces Librologies ; avec le « contenu », l’essence des objets disparaît au profit de leur quantité. « Téléchargez des contenus », vous dira-t-on — sont-ce des morceaux de musique ? des films ? des essais ? des fictions ? Peu importe. Sont-ils originaux ? expressifs ? troublants ? Nous n’en saurons rien. C’est que nous ne sommes plus dans un ethos civique ou artistique, mais marchand : dans ce milieu où l’on ne parlera plus Libre, mais libre de droits — je n’en donnerai qu’un exemple, mais il est parlant.

Nous avons vu combien Roland Barthes brocarde à l’envi ce désir « d’immanence » de la bourgeoisie de son temps : « tout phénomène », écrit-il dans un de ses textes sur Poujade, « qui a son propre terme en lui-même par un simple mécanisme de retour, c’est-à-dire, à la lettre, tout phénomène payé, lui est agréable » — la « rémunération » des artistes, que nous évoquions à l’instant, n’est pas autre chose. Le « contenu », par définition, est quelque chose d’indéterminé mais qui se définit par sa seule quantifiabilité, équationnelle et rassurante pour le « bon sens » de nos bourgeois d’aujourd’hui. Appliqué à l’art, le terme est, littéralement, lourd de sens.

Comment, dès lors, réfléchir et argumenter sainement lorsque l’on raisonne avec des termes aussi peu précis ou orientés ? Nul doute que nombre de Libristes veuillent, de tout cœur et en toute sincérité, défendre par exemple « l’écosystème des créateurs de contenu »… et pourtant, le simple fait de poser le problème en ces termes oriente déjà le discours et biaise la réflexion.

Ce questionnement se situe d’ailleurs sur toutes sortes de terrains : juridique, médiatique, technique, ontologique ; il est exprimé, à l’occasion, de façon assez rugueuse : il est à ce titre intéressant de voir combien les versions successives de la page Words To Avoid (et plus encore, ses traductions) tentent d’adoucir son propos, d’en lisser les formulations.

Comme l’avaient remarqué Barthes, mais également Bourdieu ou Orwell en leur temps, contrôler le langage revient à contrôler la pensée : imposer sa propre terminologie, c’est façonner le raisonnement du public et couper court à toute opposition argumentée. En cela, Richard M. Stallman est probablement l’un des penseurs les plus fins du mouvement Libre, ayant très tôt perçu qu’avant même de commencer à raisonner il est indispensable de questionner le langage même que l’on utilise.

Devons-nous pour autant nommer rms un philosophe ? D’aucuns ont franchi le pas, et l’on lira à ce titre avec intérêt la préface rédigée par Lawrence Lessig, fondateur des licences Creative Commons :

Chaque génération a son philosophe, un écrivain ou un artiste qui capte l’air du temps. Quelquefois, ces philosophes sont reconnus comme tels ; souvent cela prend des générations avant qu’ils soient reconnus. Mais reconnus ou pas, un temps reste marqué par les gens qui parlent de leurs idéaux, dans le murmure d’un poème, ou l’explosion d’un mouvement politique.

Notre génération a un philosophe. Il n’est ni artiste, ni écrivain professionnel. Il est programmeur.

Me trouvant en contact régulier avec l’intéressé, j’ai récemment eu l’occasion de lui demander son point de vue sur la question : « Je suis content, m’a-t-il répondu, que les gens me considèrent comme un philosophe, car cela montre qu’ils ont compris que le mouvement des logiciels Libres n’est pas un mouvement purement informatique, mais un mouvement culturel, social et philosophique ». Réponse pragmatique : le « positionnement » de Richard Stallman ne peut s’analyser autrement que par le public auquel il s’adresse.

Jared and Corin - CC by-saC’est en ce sens que doivent être lues, je pense, les pages « philosophie » du projet GNU : il ne s’agit bien évidemment pas d’ouvrages philosophiques au sens où l’entendent, par exemple, les universitaires et chercheurs en philosophie. Richard Stallman ne propose pas de redéfinir notre vision du monde, et son « apport » à la philosophie, si tant est même qu’il existe, se limite à rappeler des notions simples de droits de l’Homme, de partage et d’entraide, sur lesquelles se fondent le mouvement Libre. Et pourtant, il ouvre ainsi l’accès à une réflexion d’une finesse et d’une exigence nettement différente des préoccupations ordinaires des informaticiens et autres geeks.

Pour amener un tel public à un véritable questionnement éthique qui ne se contente point des évidences d’un discours médiatique prémâché, rms a manifestement choisi de se présenter comme philosophe, et de tirer ainsi partie de l’iconographie et du culte qui l’entoure : plus qu’un philosophe, il est un personnage de philosophe.

Notes

[1] Crédits photos : Affiche Utopia Toulouse, Martin Bekkelund, D’Arcy Norman et Jared and Corin (Creative Commons By et By-Sa)




La neutralité du Net, par Jean-Pierre Archambault

Desbenoit - CC by - Wikimedia Commons« La neutralité du Net ou la neutralité du réseau est un principe qui garantit l’égalité de traitement de tous les flux de données sur Internet. Ce principe exclut ainsi toute discrimination à l’égard de la source, de la destination ou du contenu de l’information transmise sur le réseau. »

Telle cette introduction Wikipédia ou cette illustration ci-contre, cela semble simple a priori.

Mais si l’on veut mieux la comprendre et en appréhender ses enjeux, le format Twitter ne suffit plus (surtout en cette période trouble où l’illimité pourrait prendre fin en France)

C’est dans ce but que nous publions un nouvel article de Jean-Pierre Archambault qui n’a pas son pareil pour nous présenter progressivement et limpidement un problème complexe 🙂

Et d’achever ainsi son propos : « Diderot et d’Alembert ont peut-être rêvé à un outil miracle faisant accéder en un tour de main tous les humains à toute la connaissance… L’enjeu est de conserver leur rêve devenu réalité. »

La neutralité du Net

URL d’origine du document

Jean-Pierre Archambault – juin 2011 – Association EPI

Le numérique est partout. Les débats sociétaux qu’il suscite se multiplient. Ainsi celui sur la neutralité du Net qui s’est installé de plain-pied dans l’actualité. Deux raisons principales sont à l’origine de ce débat : l’accroissement du trafic et la montée de questions juridiques et marchandes. S’interpénètrent des questions scientifiques, techniques, juridiques, économiques, commerciales, politiques, ainsi que celles de la liberté d’expression et de la citoyenneté, géopolitiques.

Le trafic sur internet ne cesse de croître, une évidence que cette rançon du succès ! La vidéo, gourmande en bande passante, sature les réseaux. Le marché mobile des terminaux explose. Les infrastructures doivent évoluer et se développer, le haut débit en premier lieu. Qui doit payer ? Qui pourrait payer ? Des mesures de discrimination, blocage et filtrage (pour les flux illicites), antinomiques avec la philosophie du Net, sont mises à l’ordre du jour, issues de problématiques comme la lutte contre la cybercriminalité, les modèles économiques de l’immatériel, des industries culturelles. La neutralité du Net rencontre ici les débats qui ont accompagné la transposition de la DADVSI, la loi Hadopi… La question se pose également de savoir si le Net est vraiment neutre. Et si la vision d’un cyberespace « idéal » et insensible aux réalités géopolitiques de la planète est réaliste et pertinente.

Un réseau de réseaux

Internet est un réseau de réseaux (de beaucoup de réseaux, grande distance, intranets, locaux) en trois couches : une couche physique (le fil de cuivre des réseaux téléphoniques, la fibre optique…), une couche logique (les logiciels, les protocoles d’internet) et des contenus[1]. Les câbles et les réseaux qu’ils interconnectent appartiennent à l’État ou à des entreprises privées. Les ordinateurs au sein du réseau fournissent un service de base – le transport des données – avec des fonctions très simples nécessaires pour les applications les plus diverses. L’intelligence et la complexité, à savoir le traitement de l’information, sont situées dans des ordinateurs à la lisière du réseau.

La philosophie d’internet repose fondamentalement sur l’absence de discrimination dans l’acheminement des flux et dans le fait de pouvoir, pour tout un chacun, accéder librement au réseau sans avoir à en demander la permission à une autorité. Des travaux montrent qu’un réseau d’information public est d’efficacité maximale s’il aspire à traiter tous les contenus, sites et plates-formes, de manière égale[2].

Cette architecture favorise l’innovation. En effet, les inventeurs ont seulement besoin de connecter leurs ordinateurs, sans qu’il faille modifier ceux de l’intérieur. La structure d’internet n’est optimisée pour aucune application existante spécifique, en conséquence le réseau est ouvert à toute innovation non prévue à l’origine. Il est neutre, au sens où un propriétaire du réseau ne peut pas sélectionner des données au détriment d’une nouvelle structure innovante qui menace une application en situation dominante. Les créateurs n’ont pas besoin d’obtenir une permission de quiconque pour développer une nouvelle application. Les opérateurs réseaux qui font circuler les paquets d’informations ne doivent pas y toucher. Sauf cas de force majeure, comme une congestion de réseau ou une attaque, ils doivent les transporter sans discrimination que ce soit, selon la source, la destination ou le type de message auquel le paquet appartient (données, voix, audio, vidéo). Ce principe est étendu aux services et applications, ce qui interdit les pratiques commerciales de distribution exclusive, d’exclusion et de traitement prioritaire au sein des offres internet.

D’autres réseaux fonctionnent « comme internet » : le réseau électrique auquel tout un chacun peut se connecter pourvu que son équipement corresponde aux normes du système, le réseau autoroutier car, à partir du moment où la voiture a été homologuée et où le conducteur a son permis de conduire, le concessionnaire de l’autoroute n’a pas à savoir pourquoi ni quand l’usager emprunte celle-ci.

Internet repose sur des standards ouverts de formats de données (HTML pour écrire des pages web) et de protocoles de communication (TCP/IP, HTTP). Il fonctionne à base de logiciels libres : Apache, SendMail, Linux… Il est donc difficile de verrouiller le réseau par la pratique du secret. Les logiciels libres contribuent à construire une plate-forme neutre. Ils la protègent par des licences comme la GPL et la diffusion du code source, garantissant aux développeurs qu’elle le restera dans l’avenir.

Au-dessus du réseau internet « se répandent à grande vitesse des applications du web comme les réseaux sociaux, le commerce électronique, l’usage des smartphones ou des tablettes, les blogs, les chats, la téléphonie sur IP, la géolocalisation, les sites de notation des restaurants, hôtels, voyages, les sites de rencontres, les sites de partage de vidéos, les jeux en ligne, etc. On pourrait se dire qu’on est vraiment embarqués sur un “bateau ivre”… De plus, vu les dangers et les menaces de piratage dont les médias se font écho pratiquement chaque jour, on peut également se dire que le bateau, en plus d’être “ivre”, navigue dans un véritable “champ de mines” !!! »[3]. Nous y reviendrons.

Les acteurs du Net

Quels sont les acteurs du Net ? Les internautes bien sûr. La puissance publique. Sur le plan économique, « la dernière décennie a consacré l’organisation économique d’Internet en quatre groupes d’acteurs : producteurs d’éléments de réseaux et de terminaux (ex. Intel, Microsoft, Cisco, Alcatel-Lucent, Dassault Systems), opérateurs réseaux (ex. AT&T, Verizon, France Télécom), fournisseurs de services et intermédiaires (ex. Google, Amazon, eBay, Pages Jaunes) et producteurs de contenus (ex. The Walt Disney Company, Time Warner, Lagardère, Reed Elsevier). La catégorie la plus récente, les intermédiaires, est celle qui participe le moins à l’investissement dans les réseaux, échappe largement à l’impôt et réalise les bénéfices les plus importants. C’est aussi celle qui occupe une part croissante des ressources en bande passante »[4]. On compte de l’ordre de 27 000 acteurs de par le monde.

Internet est une plate-forme qui semble mettre les internautes en relation directe, ce qu’elle n’est pas. Il y a le coeur du réseau, à savoir les réseaux d’accès avec la boucle locale (dédiée à une habitation ou à une entreprise) en cuivre ou en fibre optique, les opérateurs étant les fournisseurs d’accès à internet. Les points d’interconnexion assurent l’ouverture sur les autres réseaux d’accès par l’intermédiaire des « backbones », épine dorsale du réseau mondial[5]. Concernant les tuyaux et les flux de données, il y a donc les fournisseurs d’accès au client final, les opérateurs de transit au niveau du backbone, les hébergeurs qui stockent les données (dans des serveurs, les « data center »), les fournisseurs de « cache ».

Qui paye ?

Au plan mondial, le marché du transit et du cache représente quelques milliards d’euros, celui de l’accès plusieurs centaines de milliards d’euros. Historiquement les fournisseurs de contenus payaient les opérateurs de transit mais pas les fournisseurs d’accès. Aujourd’hui, les fournisseurs d’accès font payer une partie de leurs contrats aux fournisseurs de contenus. La téléphonie subventionne l’accès à internet. Nous avons vu ci-avant que la catégorie des intermédiaires (Google…) était celle qui participait le moins à l’investissement dans les réseaux, échappant largement à l’impôt et réalisant les bénéfices les plus importants. Les consommateurs payent davantage que les fournisseurs de contenus. Les enjeux sont d’importance et la bataille fait rage.

Le trafic va continuer à augmenter. La qualité de l’internet dépend en grande partie du dimensionnement des interconnexions, de la taille des tuyaux entre les réseaux des fournisseurs d’accès et les autres opérateurs de l’internet. Il va falloir investir dans les infrastructures fixes et mobiles. Qui va payer ? L’écosystème d’internet est complexe. Ménager un bon équilibre économique ne va pas de soi car les conflits d’intérêt sont bien réels. Comment par exemple mettre en place des mécanismes amenant les opérateurs qui induisent un trafic à payer aux fournisseurs d’accès un montant dépendant de la partie asymétrique des flux qu’ils engendrent ?

Certains, se fondant sur le fait qu’internet est et doit rester un bien commun de l’humanité, avancent l’idée d’un caractère et d’un financement publics, reposant donc sur l’impôt (notamment la fiscalité numérique qui reste un objectif majeur à mettre en oeuvre), d’une infrastructure publique d’intérêt général. Au même titre que d’autres infrastructures, par exemple les adductions d’eau, le réseau ferré ou les réseaux électriques qui le sont, l’étaient ou devraient le redevenir. Car le risque existe de dégradation de la qualité si les opérateurs n’investissent pas dans les réseaux ou privilégient la commercialisation des services gérés, mettant ainsi à mal le principe de non-discrimination, un des piliers de la neutralité du Net. Par exemple, les opérateurs réseaux sont tentés de facturer aux offreurs de contenus des services de livraison prioritaire, et aux abonnés une qualité de service privilégiée ou des bouquets de contenus exclusifs. En tout état de cause, la puissance publique ne saurait se désintéresser d’une infrastructure sociétale stratégique.

Une question centrale : la gestion du trafic

Faut-il mettre de l’intelligence dans le réseau ? Internet ne donne pas de garanties de performances dans l’acheminement, contrairement aux réseaux de type « circuits virtuels ». Les applications n’ont pas les mêmes besoins en termes de performances. La vidéo requiert beaucoup de bande passante, ce qui n’est pas le cas de la messagerie. Les applications en temps réel, synchrones, comme la téléphonie, se distinguent des applications asynchrones, le transfert de fichiers par exemple. La qualité dépend de l’interconnexion, de l’éloignement aussi, ce qui met en évidence l’intérêt du « peer to peer » qui distribue les échanges de fichiers entre plusieurs utilisateurs. Des routeurs sont capables de faire de la gestion de trafic à très haut débit avec des priorités. Faut-il permettre la discrimination des flux, mettre des priorités (ce qui n’est pas le cas en France pour les offres « triple play ») ? Les marchands répondent oui, on s’en doute. D’autres font dépendre la réponse du caractère commercial ou non des applications. Il y aurait alors l’internet et le non internet des services gérés. Ce qui supposerait que le commercial ne pénalise pas l’internet, qu’il y ait une garantie de qualité. Et il y a ceux pour qui il ne saurait y avoir de priorisation sur internet, bien commun, les services gérés n’existant que pour des applications qui en ont vraiment besoin. On pense par exemple à des services d’urgence médicale. Dans tous les cas, assurer la protection du principe de neutralité suppose des obligations de transparence imposées aux opérateurs en matière de gestion de trafic.

Sous l’angle du blocage et du filtrage

Le débat sur la neutralité du Net s’est aussi développé sous l’angle du « blocage », qui consiste à empêcher une communication sans inspection de contenu, et du « filtrage », qui repose sur une inspection de contenu, les deux soulevant des questions liées à la liberté d’expression sur internet. Les pouvoirs publics recherchent en la circonstance des moyens pour faire respecter la loi sur internet et lutter contre la cybercriminalité. Effectivement, l’État doit combattre les comportements attentatoires aux principes et valeurs de la société. Internet n’est pas un espace de non-droit. Les industries culturelles font pression, au nom de leurs modèles économiques traditionnels, pour empêcher l’accès aux contenus « illicites ». Mais l’on sait que la frontière avec les contenus « licites » peut être franchie. Et l’on sait surtout que les modèles économiques de l’immatériel ne peuvent pas être ceux de la production des biens matériels, les coûts marginaux de production et de diffusion d’un exemplaire supplémentaire étant quasi nuls[6]. Un vaste et tumultueux débat qui est loin d’être clos !

Un opérateur d’accès qui aurait une obligation légale de blocage serait amené à intervenir sur les contenus alors que son métier consiste à les acheminer. Les techniques de blocage (d’adresses IP, de noms de domaine, d’URL) et de filtrage ont un coût. Sont-elles efficaces ? Elles se contournent (utilisation de sites « miroir », de proxy, recours à un réseau privé virtuel) et peuvent engendrer des effets pervers (sur-blocage – les faux positifs – et sous-blocage – les faux négatifs –, chiffrement qui présente des risques pour la sécurité bien supérieurs à la défense des intérêts protégés…). Il est interdit d’utiliser son téléphone portable au volant. Pour autant, on n’a pas (encore ?) mis en place des dispositifs de blocage de cet usage-là.

Le rapport d’information déjà cité rappelle (page 34) : « Bien que, de manière générale, la Constitution n’oblige pas le législateur à prévoir l’intervention du juge pour prononcer toute mesure de restriction de la liberté individuelle, le Conseil constitutionnel a jugé, dans sa décision sur la loi HADOPI, qu’en raison de l’importance de la liberté d’expression et de communication et du rôle que joue l’accès à internet à l’égard de cette liberté, le législateur ne peut pas laisser une autorité administrative prononcer la sanction de suspension de cet accès. Il a ensuite précisé dans sa décision sur la LOPPSI que les dispositions confiant à l’autorité administrative le pouvoir de prononcer des mesures obligatoires de blocage “assurent une conciliation qui n’est pas disproportionnée entre l’objectif de valeur constitutionnelle de sauvegarde de l’ordre public et la liberté de communication garantie par l’article 11 de la Déclaration des droits de l’homme et du citoyen de 1789”, la décision de l’autorité administrative étant notamment toujours contestable devant le juge. »

Mais internet est-il vraiment neutre ?

Prenant un peu à contre-pied le débat sur la neutralité du Net, certains posent la question (iconoclaste ?) de savoir s’il est vraiment neutre. Serait-ce un mythe ?[7] La neutralité débattue est relativisée.

Le grand public ne le sait pas toujours mais l’ICANN, une association de droit californien, contrôle les ressources critiques que sont les adresses IP, les extensions et noms de domaines (fonction importante, noeud stratégique qui conditionne la visibilité sur le réseau), de par une dévolution du Ministère Américain du Commerce et dans l’absence de transparence requise ! Ainsi la France gère-t-elle son domaine national (.fr) en vertu d’une délégation accordée par cette association. Il est pour le moins surprenant et paradoxal de voir un espace public mondial géré par une association californienne ! Une nouvelle gouvernance, dans laquelle notamment chaque État aurait voix au chapitre dans des rapports d’égalité et en toute indépendance, s’impose car elle est une exigence légitime.

La couche basse d’internet, son épine dorsale en particulier, ce sont des câbles qu’il faut fabriquer et poser, sous la terre, les mers et les océans, ce sont des satellites. Et il faut gérer ces infrastructures. Ce monde est opaque et non régulé. Il est tenu par un club très fermé de gros transporteurs, pour l’essentiel des firmes états-uniennes. Elles contrôlent la quasi-totalité du trafic au plan mondial, ce qui leur procure en passant des profits substantiels.

On a vu que la mise en relation des internautes était loin d’être directe. Il y a des intermédiaires, qui plus est, de plus en plus puissants et concentrés : Google, Amazon, eBay, Apple, Yahoo, MSN, Facebook et autres compagnies. Ils commercialisent tout ce qui peut l’être dans le nouveau monde numérique : données personnelles, données de connexions, statistiques, musique, livres… Et si l’on ne connaît pas les algorithmes que Google utilise, en revanche on sait qu’il leur arrive d’accorder des « faveurs » dans leurs classements au bénéfice de sites avec lesquels l’entreprise entretient des relations commerciales. L’attention des internautes est captée à leur insu. Ils sont devenus la cible de producteurs de contenus en recherche de consommateurs. L’informatique est à la fois du calcul, du stockage et de la communication. L’approche de la neutralité du Net doit être globale. Elle doit aussi s’intéresser aux programmes et aux applications dont on doit savoir ce qu’ils font exactement. Et aux informations (quelles informations ?) qu’ils stockent on se sait trop où pour des utilisations dont il arrive qu’on les ignore.

Des questions de fond, planètaires

Avec internet, nous sommes de plain-pied dans des questions qui ont à voir avec l’état du monde et son devenir[8]. L’économie de la planète s’est réorganisée autour d’internet. Est en question le contrôle du commerce mondial, enjeu majeur comme ont pu l’être dans les siècles passés le contrôle du détroit des Dardanelles ou du canal de Suez. La mondialisation des activités humaines, long processus qui ne date pas d’hier, signifierait-elle dissolution des civilisations, des cultures, des langues (il existe d’autres caractères que latins sans accent : indiens, cyrilliques, arabes, mandarin… et un DNS peut s’écrire avec des idéogrammes), des systèmes économiques, des frontières, des modèles juridiques, des distances… des différences entre les hommes ? Fort improbable (on peut légitimement penser que c’est mieux ainsi) si l’on se réfère à la réalité observée. Quid alors de cette perception d’internet système global, homogène, offrant une plate-forme universelle de communications multimédia ? Exception paradoxale ou mythe, un de plus ? « L’internet est un réseau de réseaux autonomes depuis son ouverture commerciale au début des années 80. Il est fragmenté par construction, et il le restera »[9]. Et cette fragmentation devrait se renforcer. Avec « des webs “régionaux” ou même “continentaux”, à l’instar de la Chine et de son “AsiaNet” ; des webs “linguistiques”, où l’on pourra utiliser toute la puissance de sa langue maternelle pour exprimer une recherche, une adresse email ; des webs “culturels” qui embarqueront ou non des webs sectaires et/ou ethniques ; des webs “fermés”, sécurisés, anonymisés, plus ou moins cachés selon les objectifs suivis par leurs promoteurs et/ou utilisateurs ; des webs commerciaux, sur base “navigation” et/ou activité sociétale, essayant avec des bonheurs divers d’attirer des internautes dans leurs filets pour en revendre l’identité et leurs besoins et/ou habitude et/ou opinion… »[10]. La Chine s’est émancipée du contrôle américain de l’internet et ce sera bientôt le cas de l’Inde. Cela a nécessité le travail de milliers d’ingénieurs pendant des années.

Pourtant, « un épouvantail agité fréquemment par les gardiens du temple est la balkanisation ou fragmentation du réseau, avec son cortège de calamités, discontinuité des communications, confusion des noms et adresses, instabilité, insécurité, perte de fiabilité… Faudrait-il s’efforcer de maintenir au maximum un système de contrôle historique dont les éléments critiques sont verrouillés par le gouvernement des États Unis ?… oubliant au passage que la Chine a construit son propre internet, qu’il existe des milliers d’intranets… S’il fut un temps où l’ICANN, mandataire du gouvernement US, faisait la loi, on observe maintenant un réveil des gouvernements dits du sud… Le tropisme de fragmentation se renforce à mesure que les enjeux techniques deviennent minoritaires au regard d’autres domaines comme la propriété intellectuelle, le filtrage des informations, les investissements en infrastructure, la législation, la criminalité, ou les facteurs culturels et religieux »[11]. S’affrontent des modèles de cybersociétés, ayant chacune leurs valeurs, avec leur cortège de cyberconflits, cyberattaques[12], opérations de manipulation et désinformation, leurs enjeux en matière de souveraineté, de régulation et de sécurité des systèmes d’information. Dernière illustration en date, la publication par les États-Unis de leur « International Strategy for Cyberspace » dans laquelle ils indiquent leur volonté de réguler l’internet, de promouvoir un Internet « ouvert, interopérable, sécurisé et fiable »[13]. Un objectif louable mais, pour autant, les moyens annoncés ne manquent pas d’en inquiéter légitimement plus d’un de par le monde. En effet, « pour réaliser ce futur et aider à promulguer des normes positives, les États-Unis associeront diplomatie, défense et développement pour favoriser la prospérité, la sécurité et l’ouverture afin que chacun puisse bénéficier de la technologie du réseau ». Et les points sont mis sur les « i » : « Les États-Unis vont, avec d’autres nations, encourager un comportement responsable et s’opposer à ceux qui chercheront à perturber les réseaux et systèmes, en dissuadant et démasquant les acteurs malicieux, en défendant ces installations nationales vitales de façon aussi nécessaire et appropriée qu’il faudra. Nous nous réservons le droit d’utiliser tous les moyens – diplomatiques, informatifs, militaires et économiques – si appropriés et compatibles avec la loi internationale, afin de défendre notre nation, nos alliés, nos partenaires et nos intérêts. Nous épuiserons toutes les options avant d’en venir à la force militaire à chaque fois que nous le pourrons. » Le cyberespace est décidément bien dans l’espace « réel » !

Des mesures à prendre

L’enjeu de défense d’un bien commun et d’un bien public à l’échelle de la planète se situe donc dans un contexte global pluraliste. Cela étant, réaffirmer ces caractères de bien commun et bien public ainsi que le bien-fondé de l’intervention de la puissance publique reste fondamental. Cela implique quelques mesures qui figurent dans le rapport parlementaire déjà cité : inscrire dans la loi le principe de neutralité ; prévoir a minima l’intervention systématique du juge pour éviter les dérives en matière de blocage et s’interroger sur son efficacité ; réserver l’appellation internet aux services respectant le principe de neutralité et ainsi les distinguer des services gérés à caractère commercial ; obliger à une qualité « suffisante » pour tous les internautes. En définitive, faire en sorte qu’internet reste une plate-forme ouverte. Diderot et d’Alembert ont peut-être rêvé à un outil miracle faisant accéder en un tour de main tous les humains à toute la connaissance… L’enjeu est de conserver leur rêve devenu réalité.

Jean-Pierre Archambault
Président de l’EPI

PS : le débat sur la neutralité du Net est un débat de société qui concerne tous les citoyens. Il mêle d’une manière inextricable des questions politiques, économiques, juridiques et des concepts scientifiques et techniques : couches et protocoles de l’internet, adresses IP, réseaux d’accès et de transit, réseaux privés virtuels, routage, gestion du trafic, interconnexion des réseaux, chiffrement, standards ouverts… D’une manière évidente, un exercice plein de la citoyenneté suppose des connaissances de la science informatique, des représentations mentales efficientes. Fort opportunément, le programme de l’enseignement de spécialité optionnel « Informatique et sciences du numérique » créé en Terminale S à la rentrée 2012 comporte une partie consacrée aux réseaux. Une première avancée bienvenue pour les élèves de la filière scientifique ! Et tous sont concernés.

Notes

[1] Rapport parlementaire d’information déposé par la Commission des Affaires Économiques sur la neutralité des réseaux : Voir « Internet en 32 points », pages 16 à 20. « Innover ou protéger ? Un cyber-dilemme », Jean-Pierre Archambault, Médialog n° 58 de juin 2006, p. 42-45.

[2] Voir rapport parlementaire ci-dessus note 2, page 13.

[3] « La Netocratie », Mauro Israël, Forum Atena Où va la cybersociété ? Champ de mines ou bateau ivre ?, juin 2011. http://www.forumatena.org…

[4] « La neutralité du Net, un mythe paradoxal », Dominique Lacroix, Forum Atena Mythes et légendes des TIC, page 16. http://www.forumatena.org

[5] Voir rapport parlementaire ci-dessus note 2, « Interconnexion, transit et peering », pages 52 à 56.

[6] « Téléchargement sur Internet : quelle légitimité ? », Jean-Pierre Archambault, Médialog n° 57 de mars 2006, p. 42-45.

[7] Voir note 5 « La neutralité du Net, un mythe paradoxal », Dominique Lacroix, Forum Atena Mythes et légendes des TIC, page 16.

[8] Forum Atena Où va la cybersociété ? Champ de mines ou bateau ivre ? juin 2011. http://www.forumatena.org…

[9] « Où va l’internet ? Mondialisation et balkanisation », Louis Pouzin, Forum Atena Où va la cybersociété ? Champ de mines ou bateau ivre ? juin 2011. http://www.forumatena.org…

[10] Michel Charron, Forum Atena Où va la cybersociété ? Champ de mines ou bateau ivre ? juin 2011. http://www.forumatena.org…

[11] Voir note 10 « Où va l’internet ? Mondialisation et balkanisation », Louis Pouzin, Forum Atena Où va la cybersociété ? Champ de mines ou bateau ivre ? juin 2011. http://www.forumatena.org…

[12] « The Malicious Flash Crash Attack ou pourquoi il faudra peut-être ralentir les transactions électroniques », Robert Erra, Forum Atena Où va la cybersociété ? Champ de mines ou bateau ivre ? juin 2011 http://www.forumatena.org…

[13] « Les États-Unis veulent réguler Internet », Orianne Vatin, L’informaticien, le 18 mai 2011.




Les brevets logiciels : une histoire de fous !

Kalidoskopika - CC by-sa« Les entreprises trouvent plus intéressant de gagner de l’argent en se faisant mutuellement des procès qu’en créant vraiment des produits. » Tel est le cinglant résumé de ce récent éditorial du Guardian qui prend appui sur l’actualité, dont le fameux rachat de Motorola par Google, pour nous livrer un constat aussi amer qu’objectif[1].

« Les brevets étaient censés protéger l’innovation. Maintenant ils menacent de l’étouffer. » Voilà où nous en sommes clairement maintenant.

Un nouvel exemple d’un monde qui ne tourne pas rond. Un nouvel exemple où le logiciel libre pourrait aider à améliorer grandement la situation si le paradigme et les mentalités voulaient bien évoluer.

Brevets logiciels : une histoire de fous

Software patents: foolish business

Éditorial du Guardian – 21 aout 2011 (Traduction Framalang : Goofy et Pandark)

Les entreprises trouvent plus intéressant de gagner de l’argent en se faisant mutuellement des procès qu’en créant vraiment des produits.

La plupart des gens comprennent les raisons et les arguments en faveur des brevets industriels. Ces derniers fournissent à un laboratoire pharmaceutique — qui a investi une fortune dans le développement d’un nouveau médicament — une sorte d’opportunité pour, pendant une période limitée, rentabiliser sa mise initiale avant que le reste du monde ne puisse en faire des versions moins chères. Mais les brevets logiciels, bien que semblables au plan juridique, sont très différents sur le plan pratique. Quand Google a racheté la division téléphone mobile de Motorola pour 12, 5 milliards de dollars la semaine dernière, l’événement a fait des vagues dans le commerce comme dans l’industrie, parce qu’il ne s’agissait pas d’acheter les mobiles de Motorola mais son portefeuille de plus de 17000 brevets logiciels, denrée devenue la poudre d’or de l’âge numérique.

Les brevets constituent une industrie qui brasse plusieurs milliards, et les entreprises trouvent plus intéressant de gagner de l’argent en se faisant des procès qu’en créant un produit. Jusqu’au milieu des années 90 l’industrie informatique — Microsoft compris — étaient opposée à cet abus de licences. essentiellement parce que l’industrie était suffisamment innovatrice pour pouvoir se passer de la protection des brevets, qui de toutes façons incluaient des avancées technologiques relativement ordinaires, considérées comme la routine du travail d’ingénieur.

Puis, la tentation entra en scène. Les juristes des entreprises prirent conscience qu’ils pouvaient poursuivre les autres pour infraction aux brevets souvent achetés par lots. Ils furent rejoints par des entreprises « troll », constituées dans l’unique but d’acheter des brevets et de faire des procès aux autres entreprises et aux développeurs, sachant pertinemment que la plupart accepteraient une transaction à l’amiable plutôt que d’affronter les coûts prohibitifs de leur défense juridique. Les entreprise qui étaient précédemment opposées aux brevets logiciels se sont aujourd’hui lancées dans la course à l’armement. Microsoft a accumulé un gigantesque arsenal de brevets et peut taxer un fabricant comme HTC à raison de 5 dollars par téléphone portable vendu — même si le système d’exploitation Android (développé par Google) utilisé sur les téléphones HTC est « open source » et supposé disponible pour tous. Avec des centaines, si ce n’est des milliers de brevets maintenant en jeu dans un téléphone mobile, il est pratiquement impossible de ne pas enfreindre un brevet d’une manière ou d’une autre. Dans le même temps Google, confronté au puissant aspirateur à brevet de ses rivaux, a été contraint de s’acheter son propre portefeuille en réaction d’auto-défense.

Les brevets étaient censés protéger l’innovation. Maintenant ils menacent de l’étouffer. De telles acquisitions peuvent entraîner les entreprises de technologies de l’information bien loin de leur cœur de métier. Une recherche universitaire menée par le Berkman Center for Internet and Society a montré que les brevets logiciels n’ont procuré aucun bénéfice à l’industrie du logiciel, et encore moins à la société dans son ensemble. C’est dramatique, car un grand nombre d’entreprises qui étaient auparavant opposées aux brevets logiciels se sont ralliées à ce système, rendant plus difficile de trouver une solution efficace. Une fois de plus les consommateurs sont vent debout contre les entreprises. Où sont les forces régulatrices quand on en a besoin ?

Notes

[1] Crédit photo : Kalidoskopika (Creative Commons By-Sa)