Manuel « Introduction à la science informatique » – Commentaires sur les commentaires

La mise en ligne sur le Framablog de l’article Sortie du manuel « Introduction à la science informatique » a naturellement suscité des commentaires, bienvenus, variés et intéressants.

Quelques éléments pour poursuivre le débat entamé.

1) Quelle culture générale scolaire au 21è siècle ?

L’enseignement de spécialité optionnel « Informatique et Sciences du numérique » créé en Terminale S à la rentrée 2012 est un enseignement de culture générale. Comme il y en a d’autres au lycée : mathématiques, histoire-géographie, sciences physiques, philosophie… Il n’a pas vocation à former des spécialistes, cela étant il peut contribuer à susciter des vocations. Il correspond aux missions du système éducatif, à savoir former l’homme, le travailleur et le citoyen.

Les disciplines enseignées évoluent au fil du temps. On ne fait plus de géométrie descriptive en mathématiques mais des probabilités et des statistiques. Le latin et le grec n’ont plus la même place qu’au début du siècle dernier. Les sciences physiques sont devenues discipline scolaire car elles sous-tendaient les réalisations de la société industrielle. Or le monde devient numérique… L’informatique doit avoir sa place dans la culture générale scolaire car elle fait partie de la culture générale de notre époque. C’est un choix que la société fait, doit faire. Car il est clair que l’on ne peut pas tout étudier à l’Ecole. Il faut choisir le « midi qui a le plus de portes ».

Dans les commentaires, un argument nous a quelque peu surpris. Il ne faudrait pas d’informatique à l’École car « cela dégoûterait les élèves ». Le propos vaut-il pour la lecture ? N’apprenons pas à lire aux enfants. Comme cela ils ne seront pas dégoûtés et tous sauront lire. Pas sûr…

Il a été fait état, c’est inévitable, de la comparaison avec la conduite des automobiles. Rappelons que conduire une voiture, en fabriquer et étudier la thermodynamique sont trois activités de natures différentes. Comme l’utilisation des ordinateurs, leur fabrication et la science informatique le sont.

Tout le monde a en tête les débats vifs qui ont accompagné la transposition de la directive européenne DADVSI ou le vote de la loi Hadopi, et du sentiment que l’on a pu éprouver que beaucoup ne savaient pas de quoi ils parlaient. Quand les citoyens s’intéressent au nucléaire ils peuvent peu ou prou se référer à ce qu’ils ont appris à l’école en cours de sciences physiques (atome, courant électrique…). Quand ils s’intéressent aux OGM ils peuvent se référer à leurs cours de SVT. Le problème concernant l’informatique et le numérique est qu’il n’y a pas encore de cours d’informatique, scientifique et technique.

Enseigner une discipline informatique au lycée signifie fondamentalement être en phase avec la société telle qu’elle est devenue.

2) Pourquoi de la programmation ?

Faisons un détour par les mathématiques. Tous les élèves en font, de la Maternelle à la Terminale. Pourtant, bien peu seront chercheurs en mathématiques. Et tous ne seront pas ingénieurs ou professeurs de mathématiques. Ils apprennent à résoudre des équations, chose qu’ils ne feront plus le reste de leur vie. Ils étudient et construisent des fonctions. Pourquoi ? Parce qu’il est important de savoir qu’une grandeur peut dépendre d’une autre grandeur. Que, par exemple, la courbe du chômage indique une progression, éventuellement une accélération de cette progression. Pour s’approprier ces notions, il y a tout un long cheminement avec des appropriations de notions dont on ne se servira plus dans la vie. Mais il reste la culture, à savoir ce qui reste quand on a tout oublié !

Il en va de même pour la programmation. Elle est avec l’algorithmique, la théorie de l’information, l’architecture et les matériels l’un des quatre grands domaines de l’informatique, constituant une clé de voûte où les quatre arcs qui structurent l’informatique se rejoignent, A ce titre elle est déjà incontournable. Elle permet de comprendre ce qu’est l’informatique, de percevoir sa « nature profonde », de s’en imprégner. Pour s’approprier des notions (fichier, protocole de communication, « verrou mortel »…), rien de tel que d’écrire des « petits » programmes.

Cela vaut également pour l’apprentissage des autres disciplines. Encore faut-il que les élèves sachent programmer ! La programmation est un élément de cursus informatique apprécié des élèves, car elle les place dans une situation active et créative, dans laquelle ils peuvent eux-mêmes fabriquer un objet. On constate en effet avec l’ordinateur une transposition des comportements classiques que l’on observe dans le domaine de la fabrication des objets matériels. À la manière d’un artisan qui prolonge ses efforts tant que son ouvrage n’est pas effectivement terminé et qu’il fonctionne, un lycéen, qui par ailleurs se contentera d’avoir résolu neuf questions sur dix de son problème de mathématiques (ce qui n’est déjà pas si mal !), s’acharnera jusqu’à ce que « tourne » le programme de résolution de l’équation du second degré que son professeur lui a demandé d’écrire, pour qu’il cerne mieux les notions d’inconnue, de coefficient et de paramètre. Ces potentialités pédagogiques de la programmation, qui favorisent l’activité intellectuelle, sont parfois paradoxalement et curieusement oubliées par des pédagogues avertis (qui, par ailleurs apprécient les vertus de l’ordinateur et d’internet, outil pédagogique).

De plus, la programmation est une excellente école de la rigueur, de la logique. Vraiment, pourquoi s’en priver ?

3) Formation de culture générale et formations professionnalisantes

Si les disciplines scolaires sont générales et concernent tous les élèves, il n’empêche qu’elles contribuent à donner des fondamentaux que certains retrouveront dans leurs formations ultérieures et leur vie professionnelle. Toutes les disciplines sont des outils au service des autres, et aussi des fins en soi. Cela vaut par exemple pour les mathématiques qui sont au service des sciences physiques ou des sciences économiques. Et pour l’informatique bien sûr. Plus les disciplines sont au service des autres, plus elles deviennent une fin en elles-mêmes. Plus elles sont des composantes majeures de la culture des hommes. Informatique et littérature même combat. Écrire un programme ou écrire un texte sont deux activités d’égale dignité, tout aussi passionnantes l’une que l’autre : une fin en soi !

Une formation structurée sur une longue durée doit être organisée comme une fusée à deux étages : les premières années doivent être consacrées à l’apprentissage de savoirs fondamentaux, puis doivent venir les savoirs spécialisés, qui ont vocation à être directement utilisés dans (les premières années d’) une activité professionnelle. Par exemple la formation d’un médecin consiste à apprendre d’abord (dès l’école primaire, le collège et le lycée) des généralités sur l’anatomie et la physiologie humaine, avant d’apprendre tel ou tel geste chirurgical ou la posologie de tel ou tel médicament. Cette seconde phase de la formation est très variable en fonction du métier que l’on souhaite exercer : les mêmes savoirs spécialisés ne sont pas nécessaires à un ophtalmologiste et un anesthésiste, alors que l’un et l’autre doivent savoir que le cœur est à gauche et le foie à droite ou qu’une cellule humaine contient vingt-trois paires de chromosomes.

Avec l’arrivée de l’informatique au lycée se pose la question de l’identification des savoirs fondamentaux que l’on souhaite partager, non avec ses collègues, mais avec tous. Pour faire partie de la culture générale ces savoirs doivent :

  • avoir une certaine stabilité,
  • donner une image diversifiée, mais cohérente de la discipline,
  • éclairer la vie quotidienne, mais aussi ouvrir de nouveaux horizons,
  • permettre de comprendre comment utiliser des objets mais aussi comment ils sont conçus,
  • être agréables et valorisants à apprendre.

Les besoins croissants en matière d’informatique et de numérique concernent des compétences diversifiées qui évoluent rapidement (outils, langages…), des métiers nouveaux avec peu de formations existantes (web 2,0, e-économie…). Cela signifie qu’il faut distinguer la formation pour tous aux fondamentaux de culture générale informatique, scientifique et technique, dans l’enseignement scolaire et dans l’enseignement supérieur, et les formations professionnalisantes qui, de par les évolutions incessantes des besoins, doivent justement pouvoir s’appuyer sur une solide formation initiale.

Jean-Pierre Archambault
Gilles Dowek




Librologie 4 : Plain

Bonjour amis lecteurs et lectrices,

Un chapitre un peu exceptionnel pour la Librologie de cette semaine, dans de bien tristes circonstances. Je vous propose donc de réfléchir aujourd’hui au projet Gutenberg, à son fondateur Michael Hart… et à un objet mythique par excellence du monde geek : le plain-texte.

Bonne lecture à tous et à toutes ![1]

Librologie 4 : Plain

Michael HartJe précipite la publication de cette chronique (prévue pour le trimestre prochain) en apprenant à l’instant le décès de Michael Stern Hart, fondateur du Projet Gutenberg qui est la première (et sans doute la plus attachante) des bibliothèques Libres en ligne.

Au moment où j’écris ces lignes, le Projet Gutenberg s’apprête à fêter ses 40 ans — c’est-à-dire que sa naissance précède même celle du réseau Internet ! C’est le 1er décembre 1971 que tout commence, soit une bonne décennie avant l’apparition du mouvement Libre. Nous sommes à l’université d’Illinois, dont l’ordinateur central vient d’être mis en réseau avec une poignée d’autres, y compris (et c’est une grande première) au-delà du contient américain, pour former le réseau ARPANET.

Xerox-SDS Sigma 5 - Laughing Squid - CC by-ncCe jour-là le jeune Michael Hart, âgé de 24 ans, va se retrouver devant ce joyau de technologie (un Xerox-SDS Sigma V, réparti dans quatre grandes armoires, doté de 64 Ko de mémoire et de 2 Mo de stockage sur bande), pleinement conscient de l’immense faveur qui lui est accordée (le temps d’ordinateur est précieusement minuté, la moindre minute ayant un coût exorbitant). Comment être à la hauteur de cet honneur historique ? C’est en chemin que l’idée lui vient, ayant récupéré à l’épicerie du coin un prospectus où est reproduite la Déclaration d’indépendance des États-Unis d’Amérique (lesquels États-Unis s’apprêtent alors à fêter leur bicentenaire) : il va frapper un grand coup, et partager avec le monde entier un patrimoine culturel qui lui survivra et traversera les siècles.

Le projet Gutenberg prend donc vie avec ce premier texte, qui sera alors consulté par un total de… six arpanautes. Cependant Hart voit loin (l’intitulé « Gutenberg » en témoigne), et se fixe pour objectif de mettre en ligne avant la fin du siècle, les 10 000 ouvrages les plus lus au monde. Si les débuts sont laborieux (isolé et privé de toute reconnaissance académique, Hart mettra vingt ans à atteindre seulement le chiffre de 100 livres), l’objectif sera non seulement atteint mais pulvérisé à partir des années 1990, avec l’avènement du Web et de la numérisation automatisée d’ouvrages imprimés. À l’heure où j’écris ces lignes, le projet Gutenberg approche les 40 000 opus (dont certains comptent plusieurs milliers de pages) ; cependant il a été rejoint par d’innombrables initiatives similaires ou concurrentes : de Wikisource à Google Books® en passant par Internet Archive, Gallica ou Européana, l’on ne compte plus aujourd’hui les bibliothèques en ligne dont le fonds est (plus ou moins) librement accessible au public. Le réseau Internet tout entier s’est massivement transformé en vecteur de diffusion et de consommation culturelle ; P2P, MP3, streaming, podcasts, multimédia en tout genre, culte de l’image (particulièrement de l’image animée). Les livres eux-même se sont faits e-books, terme dont j’attends encore que l’on m’explique ce qu’il peut bien signifier et pourquoi on a cru bon de l’inventer — si ce n’est pour vendre, à l’occasion, des attrape-gogos numériques.

Naturellement, le projet Gutenberg n’a pas été insensible à cette évolution (qu’il a largement contribué à susciter). L’on trouvera ainsi sur la page d’un livre au hasard, la mention « eBook » largement mise en avant, ainsi que les liens suivants : Bibrec (métadonnées bibliographiques), QR Code (« Flashcode » bi-dimensionnel pour téléphone mobile), Facebook, Twitter (sans commentaire), HTML, EPUB, Kindle, Plucker, QiOO Mobile… L’on trouvera aussi, à l’occasion, des versions audio des livres en question, dans des formats Libres (Ogg Vorbis, Speex) et non-libres (MP3, Apple iTunes). On le voit, la priorité du projet Gutenberg est d’être visible et accessible (commodément) au plus grand nombre, même au prix de quelques « fautes de goût » Libristes.

Hart assume pleinement cette diversité :

Le projet Gutenberg est animé par des idées, des idéaux et un idéalisme.
Le projet Gutenberg n’est pas animé par un pouvoir financier ou politique.
De ce fait le projet Gutenberg est entièrement animé par des bénévoles.
Étant entièrement animés par des bénévoles, nous sommes réticents à toute forme d’autorité sur nos bénévoles, pour leur dire ce qu’ils doivent faire ou comment ils doivent le faire.

Nous offrons autant de libertés que possible à nos bénévoles, dans le choix des livres à partager, des formats dans lesquels les partager, ou toute autre idée qu’ils pourraient avoir quant à « la création et diffusion d’eBooks ».

Le projet Gutenberg n’a que faire d’établir des standards. Si c’était notre rôle, nous aurions accepté avec joie la proposition qui nous a été faite de convertir nos eBooks en HTML lorsque le Web était une idée toute nouvelle en 1993 ; nous nous satisfaisons d’apporter des eBooks à nos lecteurs dans tous les formats que nos bénévoles souhaitent produire.

(…) Nous encourageons les gens à nous faire parvenir des eBooks dans n’importe quel format, puis nous cherchons des bénévoles pour les convertir dans d’autres formats, et corriger peu à peu les erreurs d’édition.
(…) Nous voulons présenter au monde autant d’eBooks, dans autant de formats et en autant de langues, que possible.

Quelques formats exotiques ou propriétaires qu’il puisse proposer, rien ne me semble mieux illustrer la démarche d’accessibilité et d’universalité du projet Gutenberg que son choix, encore réaffirmé aujourd’hui, de proposer tous ses ouvrages sous forme de simples fichiers texte : dépourvus de mise en forme, d’illustrations ou de toute fioriture, ces fichiers symbolisent toute une mythologie Libriste remontant aux débuts de l’informatique, et qui est celle du plain-texte.

Plain text - oxygen-icons.org - LGPLL’expression « plain text » est de celles que l’on comprend aisément sans toutefois parvenir à la traduire de façon entièrement satisfaisante. Le projet Gutenberg propose « texte brut » ; Mozilla Thunderbird, sous la plume de Cédric Corazza, y ajoute « texte normal », plusieurs éditeurs en ligne proposent « texte pur », l’interface de Google Mail® indique « texte seul ». Wikipédia est tout aussi désemparé, juxtaposant allègrement, inspirez profondément, « fichier texte ou fichier texte brut ou fichier texte simple ou fichier ASCII »… et encore, ce n’est qu’après avoir rejeté la traduction littérale « plein texte », qui n’était pourtant pas la pire : le mot anglais plain (lui-même dérivé du vieux français) se situe en quelque sorte à mi-chemin de nos adjectifs « plan » et « plein ». Aucune de ces traductions, hélas, ne rend l’idée de dépouillement, de linéarité et (par association d’idées) de plénitude exprimée par le vieux mot français plain, qui me semblerait pourtant avoir là une magnifique occasion d’être remis en usage : ne pourrait-on pas parler de plain-texte comme l’on parle de plain-chant ?

Le plain-texte est, donc, le premier apport historique de l’informatique : pendant plusieurs décennies, les ordinateurs n’ont permis de n’échanger que cela. C’est aussi le plus fondamental — comme l’avait bien compris Michael Hart — et le plus irremplaçable : encore aujourd’hui, l’essentiel des communications numériques entre humains se fait sous forme textuelle. Courrier électronique, messagerie instantanée, commentaires sur le Web… Le plain-texte connait même, ces dernières années, un surprenant regain d’intérêt sous une forme minimale, avec la mode des micro-blogs dont nous serons amenés à reparler ici.

Il est également l’élément immatériel le plus versatile et le plus plastique : il peut servir à écrire des textes, des livres, des programmes ou des fichiers de configuration, à éditer des documents scientifiques ou des partitions musicales, voire à décrire des graphismes, des objets en trois dimensions, ou encore… à peu près tout ce que l’on veut.

Le plus robuste aussi, sans nul doute : un fichier texte corrompu ou tronqué a de meilleures chances d’être reconstitué qu’un fichier binaire. À l’utilisateur humain, le plain-texte demeure accessible et intelligible ; rassurant, somme toute. Le programmeur Douglas McIlroy, parrain de la philosophie Unix il y a un demi-siècle, ne disait pas autre chose : « n’écrivez que des programmes dont le format d’entrée est du texte pur, car c’est là une interface universelle. » Universalité certes très relative à l’époque, puisque le codage utilisé ne permet alors l’utilisation que d’un nombre restreint de caractères ; il faudra attendre les décennies suivantes pour conquérir le bas-de-casse (comme nous l’évoquions dans notre chronique sur rms), puis les caractères accentués et l’Unicode (d’ailleurs encore chaotique aujourd’hui)…

It ain’t what it used to be - revdode - CC by-nc-saLe plain-texte est, enfin, l’âme de l’informatique : binaire et code machine étant réservés aux tréfonds du bas-niveau des calculateurs, c’est sous forme de langages de programmation textuels, toujours plus naturels, que les programmeurs s’adressent et commandent à l’ordinateur… et même les simples utilisateurs qui, aujourd’hui encore, ont la patience d’apprendre à se servir d’interface textuelles, voient leur approche de l’informatique changée à jamais : dialoguer avec l’ordinateur en ligne de commande, c’est comprendre sa logique ; c’est intervenir directement dans son fonctionnement, sans la médiation factice et opaque d’une interface conçue par des humains pour un utilisateur déshumanisé, théorique et paresseux.

En un mot, le plain-texte est Libérateur : de fait, le mouvement du logiciel Libre ne milite pas pour autre chose, depuis trente ans, que d’avoir le droit d’accéder au code source, c’est-à-dire aux programmes sous une forme de plain-texte lisible et intelligible, modifiable et aisément partageable. La parenté avec la démarche du projet Gutenberg n’en est que plus frappante.

Libérateur, accessible,… mais également respectueux : un document en plain-texte ne s’impose pas à son lecteur, n’exige pas telle ou telle manière d’être lu. Il permet (dans un environnement graphique ou même en mode console) de choisir sa propre taille de texte, sa propre police (l’on préfèrera en général une fonte à espacement fixe, comme pour une machine à écrire). À l’époque où se développent les premières interactions sociales en ligne (e-mail dans les années 1970, Usenet dans les années 1980), la question ne se pose pas en ces termes : les limitations techniques (protocoles limités à l’ASCII, lenteur et coût des communications) imposent d’aller au plus court. C’est l’hégémonie, dans les années 1990, non seulement de l’HTML mais de l’informatique grand-public dite « personnelle » et des interfaces propriétaires qui remettra en cause, ô combien, ce modèle : advient le règne de la vulgarité, dont le parangon sera le mail en HTML, abomination que nous subissons encore aujourd’hui.

L’attitude, intègre et exigeante, qui consiste à préférer le plain-texte aux merveilles bling du texte soi-disant « riche », est souvent qualifiée d’élitiste ou de puriste (comme en témoigne l’expression « texte pur ») par ses détracteurs. Il ne s’agit pourtant aucunement de remettre en cause l’appropriation des outils informatiques par le plus grand nombre, ce dont on ne peut que se réjouir. Il s’agit d’une simple question de culture : de même que l’on attend de tout citoyen qu’il possède quelques références culturelles (à commencer par un minimum de grammaire écrite, ou une connaissance de base du code vestimentaire occidental), il est légitime de rappeler que notre culture d’internautes contemporains (faite de smileys, de memes, de flood, de flamewars et de troll) est le fruit de plusieurs générations de geeks qui l’ont construite sous forme purement textuelle. (Je m’empresse de préciser ici que je n’appartiens pas moi-même à cette génération, n’ayant pas eu l’usage d’un ordinateur avant le XXIe siècle.)

ASCII ArtRappeler également, car on l’oublie trop souvent, la puissance expressive du plain-texte. Je ne reviendrai pas ici sur l’ASCII Art, même si c’est un exemple frappant. Je suis davantage intéressé par la minutie avec laquelle les codeurs (programmeurs ou non) rédigent leur code source, développant de véritables traditions (coding styles) à la fois pratiques et esthétiques dans lesquelles il me semble voir une forme de langage expressif, métalinguistique et poétique — sur laquelle je ne m’attarderai pas davantage ici. Comme toute forme de communication, le plain-texte a subi au fil des décennies une exigence d’expressivité, et certaines traces en sont particulièrement visibles d’un point de vue formel : écrire en capitales signifie que l’on crie, insérer un smiley en fin de phrase dénote un ton ironique, et ainsi de suite.

Cette exigence d’expressivité influe même sur la structure du langage, qui se surcharge de signes. Un bon exemple en est la longueur des phrases, qui à l’oral importe bien moins que le ton et le propos : dans un message électronique en plain-texte au contraire, rien n’est plus cassant qu’une phrase courte et lapidaire, et l’on se surprendra fréquemment à rallonger artificiellement ses phrases pour ne point froisser son interlocuteur. Les effets de juxtaposition, également, sont frappants — particulièrement dans un courriel auquel l’on répond de façon entrelacée avec le message d’origine. Autre effet de juxtaposition — dont j’use abondamment dans ces chroniques sous forme d’hyperliens —, l’insertion d’URLs dans le discours. Enfin les retours à la ligne et effets typographiques, pour rudimentaires qu’ils soient, permettent une certaine dramatisation (au sens de dramaturgie) du discours ; je pourrais en donner un exemple.

Ici même.

Mais à quoi bon ?

***hausse les épaules***

Enfin bref.

Il ne serait donc pas totalement honnête de théoriser, comme je l’avais moi-même fait dans une première version de cet article, que le plain-texte permet d’ignorer la forme pour se concentrer sur le contenu. La forme est toujours présente, si discrète soit-elle ; la différence est qu’elle ne fait pas nécessairement sens par elle-même, et demande un minimum d’attention, autant à l’émetteur qu’au récepteur, pour lire, littéralement, entre les lignes de plain-texte.

Michael Hart et Gregory Newby - Marcello - GFDLL’illustration idéale de ce propos m’est, à nouveau, fournie par Michael Hart, virtuose du plain-texte s’il en fut — et Libriste engagé. Sur sa très modeste page web, il évoque quelques-uns des (trop prévisibles) ennuis juridiques qu’a pu subir le projet Gutenberg dans la dernière décennie, certains éditeurs traditionnels s’étant manifestement lancés dans une croisade contre le domaine public et l’intérêt général. Il faut lire les réponses rédigées — toutes en plain-texte, évidemment — par Hart et son bras droit Gregory Newby aux mises en demeure d’éditeurs outragés : à la fois polies, implacables… et d’une ironie mordante : un exemple à suivre. La réponse de Hart concernant le livre Anthem, en particulier, est à lire à tout prix : outre son flegme et son exactitude juridique, chaque ligne fait exactement le même nombre de caractères, le tour de force par excellence de tout geek qui se respecte…

Telle est la leçon, et le souvenir, que nous laisse Michael Hart : celui d’une époque, d’un esprit où la rigueur se mêle à l’ambition et la fantaisie, où l’économie de moyens n’empêche point l’élégance et l’humour, et où, enfin, l’attrait de la nouveauté ne laisse pas s’estomper l’Histoire et le genre humain dans son ensemble.

To Michael S. Hart, a plain human being.




Librologie 3 : User-generated multitude

Bonjour à tous, bonjour à toutes,

Après deux premières Librologies en forme de portrait, je vous propose aujourd’hui de commencer à aborder le domaine des pratiques culturelles Libres, qui est la motivation d’origine de ces chroniques.

C’est l’occasion de revenir sur quelques thématiques évoquées précédemment avec l’épisode rms, mais également d’introduire d’autres problèmes que nous serons amenés à retrouver au fil des semaines.

Bonne lecture, et à la semaine prochaine…

Librologie 3 : User-generated multitude

La chronique que je vous propose aujourd’hui a déjà été écrite pour moi, au moins en partie, par l’enseignant-chercheur Olivier Ertzscheid, qui a récemment été frappé, tout comme moi (et des millions d’internautes), par le diagramme suivant :

In 60 seconds - Go-Globe.com

Son commentaire, brillamment intitulé L’imaginaire numéraire du numérique, mérite d’être lu en entier. En voici quelques fragments (où l’on notera d’ailleurs une allusion à Roland Barthes) :

Le vertige des grands nombres est constitutif de la statistique du web, formidable écosystème facilitateur et multiplicateur de la moindre interaction, de la moindre navigation, de la moindre publication, de la moindre attention portée. Les chiffres de Facebook sont donc pareillement vertigineux, comme sont vertigineux ceux de Google, de Youtube et de l’ensemble de ces mégalopoles virtuelles dans lesquelles se croisent, chaque jour, deux milliards d’internautes. (…)

Ces chiffres contribuent également à nourrir un imaginaire collectif qui, incapable de littéralement se représenter « ce que représente » le traitement computationnel de 57 milliards d’interactions comme on est incapable, dans l’instant, de se représenter « ce que représente » la fortune de Liliane Bettancourt à l’échelle de notre salaire mensuel, ces chiffres, disais-je, contribuent également à nourrir un imaginaire collectif réduit à choisir l’extase statistique comme seul argumentaire de la construction de son horizon critique. (…)

2 milliards d’internautes mais 6 miliards d’êtres humains. Or avez-vous vu récemment une infographie sur le nombre de véhicules circulant chaque jour sur le périphérique parisien ou new-yorkais ? Voit-on se multiplier les infographies sur le nombre de coups de fils passés chaque jour dans le monde ? Sur le nombre de litres d’essence consommés chaque jour dans chaque pays ? Sur le nombre de feuilles de papier sortant chaque jour des imprimantes domestiques ? On sait que là aussi les chiffres seraient vertigineux. Mais ces chiffres là ne nous fascinent plus. L’écosystème qu’ils décrivent est « tangible », lourdement, tristement et désespérement tangible. (…)

Le chiffre, les chiffres de l’internet renvoient donc à des effets de sidération qui participent d’une atténuation de l’effet de réel des entités qu’ils décrivent en même temps qu’ils renforcent le pouvoir symbolique des grandes firmes du web. (…) La mythologie de l’internet – au sens des mythologies de Barthes – est construite sur ces chiffres renvoyant à une nouvelle Babel statistique.

Puisqu’Olivier Ertzscheid nous y invite, relisons les Mythologies de Barthes, et tentons par exemple de mettre en balance ce nouvel imaginaire vertigineux des très grands nombres auquel donne lieu Internet, avec la rhétorique de la computabilité et de la quantifiabilité que Roland Barthes observait chez la petite-bourgeoisie poujadiste de son temps (état d’esprit dont nous avons vu qu’il est toujours à l’œuvre aujourd’hui) : « l’infini du monde est conjuré, écrit-il dans son texte sur Poujade déjà cité, (…) toute une mathématique de l’équation rassure le petit-bourgeois, lui fait un monde à la mesure de son commerce ».

M. Ertzscheid n’a pas tort de parler d’une « extase statistique » (d’ailleurs souvent en forme d’auto-congratulation), cependant il s’en faut de peu pour que l’extase cède le pas (en particulier dans certains milieux traditionnellement légitimés) à un sentiment de terreur. Un chiffre concevable fait un argument publicitaire efficace, un chiffre inconcevable effraie. On peut nous vendre, sur des affiches de vingt mètres carrés, tel grand concert dans un stade sportif, avec « 500 musiciens, 200 artistes sur scène », mais on a renoncé depuis longtemps à nous vendre tel film comme ayant nécessité « 200 millions de dollars, 50 000 figurants » et ainsi de suite.

Lorsqu’il cesse d’être concevable pour devenir « sidérant », lorsqu’il ne réduit plus le monde à une donnée appréhensible mais évoque au contraire son ampleur, le chiffre n’est plus un nombre, mais une image : on ne s’appuie plus dessus pour argumenter, mais pour frapper les esprits. Cela n’a pas échappé à un autre enseignant-chercheur, André Gunthert, qui rebondit sur l’analyse de Ertzscheid pour critiquer un ouvrage de Patrice Flichy intitulé Le Sacre de l’amateur, et dont les premières lignes donnent (mal ?) le ton :

Les quidams ont conquis Internet. Cent millions de blogs existent dans le monde. Cent millions de vidéos sont visibles sur YouTube. En France, Wikipédia réunit un million d’articles, et dix millions de blogs ont été créés. Un quart des internautes a déjà signé une pétition en ligne. Ces quelques chiffres illustrent un phénomène essentiel : le web contemporain est devenu le royaume des amateurs.

Ce qui définit l’amateur, c’est donc sa multitude indéterminée (par opposition, imagine-t-on, à la singularité du « professionnel » — j’y reviens à l’instant). Dans un autre ouvrage plus ancien au titre similaire (Le Culte de l’Amateur, également remarqué par Gunthert), l’entrepreneur américain Andrew Keen est même nettement plus vindicatif :

Voici l’ère où la musique que nous écouterons viendra de groupes amateurs dans des garages, les films que nous verrons viendront d’un YouTube amélioré, et les actualités, faite de potins mondains survitaminés, nous seront servies comme une garniture autour de la pub. Voilà ce qui arrive lorsque l’ignorance se joint à l’égoïsme qui se joint lui-même à la loi de la foule.

Les invasions barbares, réactualisation d’un mythe. Cependant, est-ce vraiment là la seule attitude possible ? Autre entrepreneur américain, Chris Anderson a montré avec ses travaux sur la « longue traîne » et l’économie de la gratuité que l’avènement des « multitudes » sur le Web pouvait permettre l’émergence de modèles éminement rentables.

À condition, évidemment, de savoir quoi vendre. Nous parlions récemment de ce glissement linguistique qui consiste à désigner les œuvres de l’esprit sous l’appellation de « contenu », glissement critiqué aussi bien par Stallman que Doctorow : jamais sans doute n’aura-t-il été aussi révélateur que dans l’expression User-Generated Content, « contenu produit par les utilisateurs », dont l’avènement dans les années 2000 a été décrit comme signe d’une « marchandisation du Web ».

Ainsi, le regard que porte le système idéologique dominant sur les multitudes d’internautes me semble osciller entre mépris et avidité, entre terreur et intérêt financier. Nous ne nous appesantirons pas ici sur l’oxymore « user-generator », retournement par lequel le public autrefois passif, devient aujourd’hui actif ; de spectateur, devient acteur ; de consommateur, devient producteur. Beaucoup s’en sont émerveillés (à juste titre), souvent avec cette tonalité d’auto-congratulation que nous évoquions plus haut ; d’autres ont fait remarquer combien l’internaute producteur de richesse intellectuelle devient force de travail volontaire, sans toujours en être conscient ; d’autres enfin soulignent que certaines formes de cette production de richesse sont à même de remettre en cause l’intégrité de notre citoyenneté — autant de critiques pertinentes et valides.

Le point sur lequel j’aimerais m’arrêter ici plus longuement est la dichotomie amateur/professionnel et l’idéologie qui la sous-tend. (C’est là un thème sur lequel nous aurons l’occasion de revenir, et que j’ai déjà tenté d’évoquer ailleurs.) Outre son arbitraire simpliste, cette division me semble révélatrice d’un Ordre social conservateur, par lequel les auteurs se voient figés dans une marginalité clairement identifiée. Un signe de ce processus (sur lequel je reviendrai prochainement) est sans doute à lire dans l’emploi immodéré du terme « artiste » parmi les discours d’industriels ou de politiques : « défendre les artistes », « aimer les artistes »… Or, là où des termes comme « musicien », « écrivain » ou « peintre » évoquent une profession, le mot « artiste » renvoie à un statut social. Ce même « statut prestigieux, comme le relèvait Barthes dans sa mythologie de l’Écrivain en vacances, que la société bourgeoise concède libéralement à ses hommes de l’esprit (pourvu qu’ils lui soient inoffensifs) ». Soyez « artistes », soyez « professionnels »… mais surtout ne sortez pas de votre case. L’on sait ce que le mot « amateur » peut avoir de méprisant ; c’est pourtant occulter le pouvoir assujettissant du mot « professionnel ».

L’amateur d’un côté, le professionnel de l’autre : les deux termes sont d’ailleurs interdépendants, et nous verrons plus bas que leur définition même, dans le dictionnaire, relève de la tautologie. Un ordre bien délimité, bien intelligible, presque « naturel » pour ainsi dire… ce même naturel, note Barthes dans l’avant-propos déjà cité, « dont la presse, l’art, le sens commun affublent une réalité qui, pour être celle dans laquelle nous vivons, n’en est pas moins parfaitement historique ». Nous avons déjà eu l’occasion de nous arrêter sur le mythe du « créateur » ; nous pourrions l’examiner d’un point de vue historique et montrer combien des concepts tels que la singularité et l’unicité de l’auteur (pour ne rien dire de la propriété) sont bien moins universels, immémoriels et impérissables qu’on ne nous le laisse accroire. Dans de nombreuses cultures (et durant une très large part de l’histoire de l’Occident chrétien) les pratiques artistiques sont d’essence rituelle et le fait même de prétendre signer une œuvre semblerait incongru, l’auteur s’estompant devant la tradition ou les divinités ; inversement, même certains auteurs (peintres, compositeurs) qui passent aujourd’hui, à juste titre, pour des individualités exceptionnelles (ou génies, pour employer un autre mythe) de ces quatre derniers siècles, travaillaient dans des conditions que je n’hésiterais pas à qualifier de proto-industrielles. En fin de compte, les pratiques culturelles de toute société ne sont qu’un épiphénomène de son Histoire.

D’un côté l’amateur, de l’autre le professionnel. Certes. Mais comment qualifier alors un citoyen qui, sans être statutairement identifié comme « créateur », s’empare d’une parole publique à laquelle il ne devrait pas « légitimement » prétendre ? On lui fabriquera un nom hybride sur mesure : ce sera le Pro-Am. Virginie Clayssen décrit ainsi cette mise à l’index, avec une jolie période : « Les Pro-Am, cible des contempteurs de blogs, des pourfendeurs de Wikipédia, des détracteurs du Crowdsourcing, cible de ceux qui disent `et voiià, maintenant, n’importe qui peut dire n’importe quoi.´ »

J’irai, pour ma part, plus loin : la simple terminologie pro-am me semble elle-même investie de l’idéologie d’ « ordre social » que j’évoquais à l’instant, délimitée d’un côté par ceux qui produisent, de l’autre par ceux qui consomment. Dans ce cadre il n’est pas anodin de souligner dans quel contexte social se produit l’avènement de l’Internet User-Generated : dans une époque où « nos » sociétés occidentales s’engoncent dans une morosité économique et où les classes sociales sont de moins en moins perméables, la figure de l’artiste est l’une des dernières images positives laissant entrevoir la possibilité d’une ascension sociale — du moins en termes de capital symbolique : les pratiques artistiques, et les possibilités de diffusion ouvertes par Internet, incarnent pour toute une classe moyenne ou défavorisée, l’espoir de « devenir quelqu’un ». (On pourra lire à cet égard un récent article du jeune auteur québecois Mathieu Arsenault, qui applique avec pertinence quelques notions de Pierre Bourdieu au paysage culturel actuel.)

C’est pourquoi cette idéologie fonctionne aussi bien dans les deux sens : au mythe des hordes d’amateur déferlant sur les rivages de la civilisation numérique, répond en miroir celui du jeune artiste « révélé » par Internet. (Étant entendu que la cause finale de toute success story digne de ce nom n’est autre que de rentrer dans le rang : une fois « révélé », le pro-am devient pro tout court et l’Ordre est enfin confirmé.) Du « Sacre de l’amateur » comme horizon ultime.

L’anecdote qui suit me semble révélatrice de cette ambivalence. Comme nous le rapporte le blog américain Techdirt, la prestigieuse guilde des auteurs de romans policiers américains (Mystery Writers of America) se refuse encore aujourd’hui à accepter parmi ses membres des auteurs qui éditent eux-même leurs ouvrages. Cela agace particulièrement un auteur reconnu tel que J.A. Konrath, qui s’en plaint abondamment sur son blog.

Son (long) commentaire mérite d’être lu attentivement. Dans un premier temps, il décrit l’isolement et le besoin de reconnaissance d’un jeune auteur, les conditions (et tarifs) drastiques pour entrer dans cette association… puis sa déception lorsqu’il se rend compte que « La MWA, une structure qui était censée exister pour venir en aide aux auteurs, semblait n’exister que pour s’alimenter elle-même. » On est ici dans un cheminement classique, qui ne devrait étonner personne s’étant déjà trouvé en rapport avec une société dite « d’auteurs ».

Critique des intermédiaires, d’un système industriel dépassé : son texte reprend nombre d’arguments développés depuis longtemps dans le milieu Libriste. Cependant nous allons voir que son raisonnement diffère sensiblement des thématiques du mouvement Libre :

En fixant des conditions d’accès fondées sur les contrats passés avec des éditeurs traditionnels, cette association cherche à n’être composée que de professionnels.

Le fait est que la plupart des ouvrages auto-édités ne sont pas très bon, et n’auraient jamais été publiés dans le système traditionnel.

Mais les temps ont changé. Il est aujourd’hui possible pour les auteurs de contourner les gardiens du temple par choix (et non parce qu’ils n’auraient pas d’autre choix). Des auteurs auto-édités peuvent vendre beaucoup de livres et se faire un paquet d’argent. L’équivalent d’un salaire à temps plein.

Pour moi, être un professionnel n’est pas autre chose.

(…) Au demeurant, je suis entièrement d’accord pour protéger les auteurs d’éditeurs peu recommandables, et pour maintenir une qualité professionnelle élevée.

Mais ces règles font que même quelqu’un comme John Locke, qui a vendu près de 1 million de livres électroniques, ne pourrait prétendre s’inscrire à la MWA.

Combien de membres de la MWA tirent donc à 1 million d’exemplaires ?

J’ai vendu près de 300 000 livres électroniques auto-édités. Mais il semble que ça n’entre pas dans la définition de « qualité professionnelle » de la MWA.

Qualité professionnelle, apparemment, veut dire : « Vous ne valez rien tant que vous ne serez pas approuvé par l’industrie. »

(…) Dans toute structure, il existe une culture du « nous d’un côté, eux de l’autre ». C’est enraciné dans le génome humain. Disciplines sportives. Clubs d’étudiants. Sociétés secrètes. Syndicats. En tant que membre d’un lieu select, on se sent spécial. Dans le pire des cas, on se sent supérieur.

J’ai une info pour vous : aucun écrivain n’est supérieur à aucun autre. Certains peuvent avoir plus de talent. D’autres, plus de chance. Mais si l’on s’acharne, jour après jour, mois après mois, sur votre ordinateur et qu’on atteint enfin le mot magique « fin », on est un écrivain.

Vous voulez faire tourner un groupe d’écrivains ? Alors incluez tout le monde. Vous voulez faire tourner un groupe d’écrivains professionnels ? Ouvrez votre dictionnaire :

professionnel. Se dit de quelqu’un qui :
a. prend part contre rétribution à une activité souvent pratiquée par les amateurs
b. exerce une profession spécifique dans le cadre d’une carrière à long terme
c. est engagé par d’autres gens moyennant rémunération

D’après le dictionnaire, il me semble que beaucoup d’écrivains auto-édités pourraient être qualifiés de professionnels.

(…) Autrefois, il fallait être validé par les gardiens du temple (c’est-à-dire avoir le cul bordé de nouilles) pour se faire de l’argent.

Aujourd’hui on peut court-circuiter les intermédiaires et atteindre directement le lecteur, et se faire au passage une marge plus importante que jamais dans l’histoire de l’imprimerie.

Je me suis cassé le cul à essayer d’être édité. Mais je ne prétends pas que le succès m’est dû. Tout métier exige de travailler dur, et ça ne garantit rien.

Je me rends compte que j’ai eu de la chance de décrocher quelques contrats traditionnels, et encore plus de chance quand l’auto-édition est devenu aussi rentable.

Ça ne fait pas de moi quelqu’un d’estimable. Ça fait de moi quelqu’un de riche.

Si, un par un, les membres de la MWA réalisaient qu’il ne doivent leur carrière et leurs contrats qu’à un coup de chance, je doute qu’ils persisteraient à exclure l’auto-édition.

Au demeurant, je ne dis pas qu’il faudrait ouvrir les portes à tout le monde. Il devrait y avoir des standards de qualité. Une association d’écrivains devrait être composée d’écrivains, pas d’imposteurs.

Aussi, quels seraient mes critères d’admission si j’étais à la tête de la MWA ?

Je n’en aurais qu’un. Prouvez-moi que vous avez vendu 5000 livres. Et l’affaire est dans le sac.

Je dirais que tirer à 5000 témoigne d’une vraie motivation « professionnelle », sans que des dinosaures-gardiens du temple n’aient leur mot à dire. Laissons les lecteurs garder le temple : ce sont eux qui ont le dernier mot de toute façon.

(…) Chacun de nous travaille dur. Chacun de nous n’écrit qu’un mot à la fois. Certains d’entre nous réussissent, la plupart échouent.

Mais nous sommes tous écrivains. Nous pouvons tous apprendre des autres, et nous aider les uns les autres.

Et nous n’avons pas besoin d’une association pour nous dire qu’une avance sur droits de 500 dollars chez un éditeur traditionnel veut dire qu’on est un pro, mais pas un chiffre d’affaires de 500 000 dollars dans l’auto-édition.

Si les ouvrages de Konrath n’ont jamais été publiés sous licences Libres, l’on sait au moins qu’il est favorable à la diffusion gratuite sur Internet et à l’auto-publication.

Cependant cet extrait nous montre aussi combien il reste attaché à la distinction amateur/professionnel, et que son raisonnement s’appuie sur une quantification entièrement marchande (l’on pourra également se référer à ce calcul et cette discussion sur le même sujet, tous deux révélateurs) qui n’est pas sans rappeler la vision de Chris Anderson que nous évoquions plus haut.

Si l’avènement d’Internet et de « la multitude » marque les esprits et semble de nature à bouleverser l’ordre établi, il se contente finalement de perpétuer (dans le meilleur des cas, au prix d’une simple redistribution des rôles), sinon l’ordre social pré-existant, du moins ses valeurs et son idéologie. De même qu’un scenario de film hollywoodien joue avec l’idée de transgression et d’incertitude, pour finalement aboutir à une conclusion où sont restaurées les valeurs morales traditionnelles, le « vertige des grands nombres » que nous procure aujourd’hui le Web n’est autre que ce frisson délicieux d’extase, d’espoir ou de terreur qui nous saisirait devant un rebondissement inattendu : nous ne sommes, après tout, qu’au milieu du film.




Sortie du manuel Introduction à la science informatique

Introduction à la Science Informatique - CouvertureEn visite en Angleterre, voici ce que disait le patron de Google dans une récente traduction du Framablog : « Je suis sidéré d’apprendre qu’il n’existe même pas d’enseignement de base de l’informatique dans les écoles britanniques aujourd’hui. Votre programme de technologie se concentre sur la manière d’utiliser un logiciel, mais n’explique pas comment il a été conçu. »

Et Slate.fr d’en remettre une couche le 4 septembre dernier dans son pertinent article La programmation pour les enfants: et pourquoi pas le code en LV3 ? : « Lassés d’avoir bouffé des slides de PowerPoint et des tableurs Excel dans leurs jeunes années, les étudiants se sont détournés peu à peu de l’étude de l’informatique confondant, bien malgré eux, l’apprentissage d’applications qu’ils trouvent généralement inintéressantes et celui des sciences computationnelles dont ils ne comprennent même pas l’intitulé. »

Toujours dans le même article : « On fait beaucoup d’esbroufe sur la délocalisation d’activités telles que la création de logiciel, mais ce qui n’est pas clair dans cette histoire c’est où est la charrue et où sont les bœufs. Est-ce que les entreprises délocalisent par ce que cela leur coûte moins cher et dans ce cas nous perdons des emplois sur le territoire, ou bien le font-elles parce qu’elle ne peuvent tout simplement pas recruter ici si bien qu’elles à se mettent rechercher des gens compétents ailleurs ? ».

Owni, quant à lui, va encore plus loin, avec son appel à hacker l’école accompagné du témoignage d’un père qui souhaite que sa fille en soit.

Lentement mais sûrement on prend enfin conscience que l’enseignement de l’informatique est un enjeu fondamental du monde d’aujourd’hui. Il y a ceux qui maîtriseront, ou tout du moins comprendront, le code et il y a ceux qui utiliseront le code créé par d’autres.

C’est pourquoi l’arrivée en France pour la rentrée 2012 en Terminale S de l’enseignement de spécialité « Informatique et sciences du numérique » est une avancée importante que l’on doit saluer comme il se doit.

Tout comme nous saluons ci-dessous la sortie d’un manuel support de cette nouvelle discipline (mais qui pourra également être utile et précieux à tout public intéressé par le sujet). Sous licence Creative Commons il a été rédigé collectivement par certains de ceux qui se sont battus avec force, courage et diplomatie pour que cet enseignement voit le jour (à commencer par Jean-Pierre Archambault que les lecteurs de ce blog connaissent bien).

Peut-être penserez-vous que c’est dommage et pas assez ambitieux de se contenter d’une spécialité pour la seule classe tardive de Terminale S ? (Peut-être jugerez-vous également que la licence Creative Commons choisie par le manuel n’est pas « assez ouverte » ?) Certes oui, mais en l’occurrence nous partons de si loin que l’on ne peut que se réjouir de ce petit pas qui met le pied dans la porte.

Et le Libre dans tout ça ?

Point n’est besoin de consulter les communiqués dédiés de l’April et de l’Aful, mentionnés ci-dessous, pour comprendre qu’il devrait largement bénéficier lui aussi de l’apparition de ce nouvel enseignement, synonyme de progrès et d’évolution des mentalités à l’Education nationale.

Edit du 18 septembre : Il y a une suite à cet article puisque les auteurs, Gilles Dowek et Jean-Pierre Archambault, ont choisi de commenter les nombreux et intéressants commentaires dans un nouveau billet.

Un manuel Introduction à la science informatique

Un manuel Introduction à la science informatique est paru en juillet 2011, destiné aux professeurs qui souhaitent se former avant de dispenser l’enseignement de spécialité « Informatique et sciences du numérique », créé en Terminale S à la rentrée 2012[1]. Il s’adresse aussi potentiellement à d’autres publics souhaitant s’approprier les bases de la science informatique[2].

Edité par le CRDP de Paris[3], ce manuel a été écrit par 17 auteurs[4] et coordonné par Gilles Dowek, directeur de recherche à l’INRIA. La préface est de Gérard Berry, professeur au Collège de France et membre de l’Académie des Sciences. Ce livre est sous licence Creative Commons : paternité, pas d’utilisation commerciale, pas de modification.

Il est composé de 7 chapitres : Représentation numérique de l’information ; Langages et programmation ; Algorithmique ; Architecture ; Réseaux ; Structuration et contrôle de l’information ; Bases de données relationnelles et Web. Les chapitres comportent une partie de cours présentant les concepts, d’exercices corrigés et non corrigés, d’une rubrique consacrée aux questions d’enseignement, et de compléments permettant d’aller plus loin, en particulier d’aborder quelques questions de société en liens avec la révolution informatique.

Le programme des élèves de Terminale S

Ce contenu reprend, sous une forme plus approfondie, les éléments du programme de la spécialité « Informatique et Sciences du numérique » proposée à la rentrée 2012 aux élèves de Terminale S et qui est construit autour des quatre notions fondamentales d’information, d’algorithme, de langage et de machine), notionss qui structurent les grands domaines de la science informatique.

  • Représentation de l’information
    • Représentation binaire, opérations booléennes, numérisation, compression, structuration et organisation de l’information.
    • Ancrées dans les notions étudiées, des questions sociétales seront abordées : persistance de l’information, non-rivalité de l’information, introduction aux notions de propriété intellectuelle, licences logicielles.
  • Algorithmique
    • Des algorithmes simples (rechercher un élément dans un tableau trié par une méthode dichotomique) et plus avancés (recherche d’un chemin dans un graphe par un parcours en profondeur) seront présentés.
  • Langages de programmation
    • Types de données, fonctions, correction d’un programme, langages de description (présentation du langage HTML).
  • Architectures matérielles
    • Architectures des ordinateurs : éléments d’architectures, présentation des composants de base (unité centrale, mémoires, périphériques.), jeu d’instructions.
    • Réseaux : transmission série – point à point – (présentation des principes, introduction de la notion de protocole), adressage sur un réseau, routage.
    • La question de la supranationalité des réseaux sera abordée.
    • Initiation à la robotique

Quid du libre ?

La liberté des usagers de l’informatique, le contrôle des outils qu’ils utilisent supposent qu’ils comprennent et maîtrisent les concepts qui les sous-tendent. Un système d’exploitation, un traitement de texte ou un tableur sont des outils conceptuels compliqués et complexes de par les objets qu’ils traitent et la multitude de leurs fonctionnalités. Le libre, c’est-à-dire le code source que l’on connaît et non pas une approche en termes de « boîte noire » miraculeuse qui fait tout pour vous (curieuse d’ailleurs cette représentation mentale qu’ont certains de la prothèse du cerveau qu’est l’ordinateur, que l’on pourrait utiliser sans la connaître ni la comprendre), s’inscrit pleinement dans la vision qui considère que l’homme, le travailleur et le citoyen doivent avoir une culture générale informatique scientifique et technique.

C’est donc très naturellement que l’APRIL s’est félicité de la création de l’enseignement « Informatique et Sciences du numérique ». Le 5 janvier 2010, dans un communiqué de presse, rappelant qu‘« elle a toujours été favorable à ce que l’informatique soit une composante à part entière de la culture générale scolaire de tous les élèves sous la forme notamment d’un enseignement d’une discipline scientifique et technique », elle soulignait « cette première et importante avancée signe d’une certaine rupture ». Elle mentionnait que « l’expérience de ces dernières années a clairement montré que le B2i ne fonctionnait pas. Son échec prévisible tient notamment à des problèmes insolubles d’organisation, de coordination et de cohérence des contributions supposées et spontanées des disciplines enseignées. De plus ne sont pas explicitées les connaissances scientifiques et techniques correspondant aux compétences visées ».

D’une manière analogue, dans un communiqué le 23 mars 2010, l’AFUL faisait des propositions pour l’Ecole à l’ère numérique parmi lesquelles : « L’informatique devient une discipline à part entière, dont l’enseignement obligatoire dès le primaire est réalisé par des professeurs ayant le diplôme requis dans cette spécialité ou ayant bénéficié d’une formation qualifiante. La gestion des compétences, l’accompagnement des enseignants et la formation initiale et continue font l’objet du plus grand soin. ».

Gilles Dowek et Jean-Pierre Archambault

Remarque : En réponse aux commentaires ci-dessous, les auteurs ont choisi publié un nouvel article qui précise et complète un certains nombres de points évoqués ici.

Notes

[1] On peut le commander en suivant ce lien. On le trouvera également dans les librairies du CNDP, des CRDP et des CDDP.

[2] Parmi ces publics, il y a les étudiants ainsi que les professeurs de la spécialité SIN « Système d’Information et Numérique » du Bac STI2D qui se met en place en classe de Première à la rentrée 2011, les professeurs de technologie au collège, ceux qui expérimentent des enseignements d’informatique dans certains lycées en seconde et/ou en première, ou qui gèrent les parcs informatiques des établissements scolaires.

[3] Avec le soutien de l’EPI et de l’ASTI.

[4] Jean-Pierre Archambault (Chargé de mission au CNDP-CRDP Paris), Emmanuel Baccelli (Chargé de Recherche à l’Institut National de Recherche en Informatique et en Automatique), Sylvie Boldo (Chargée de Recherche à l’Institut National de Recherche en Informatique et en Automatique), Denis Bouhineau (Maître de Conférences à l’Université Joseph Fourier, Grenoble), Patrick Cégielski (Professeur à l’Université Paris-Est Créteil), Thomas Clausen (Maître de Conférences à l’École polytechnique), Gilles Dowek (Directeur de Recherche à l’Institut National de Recherche en Informatique et en Automatique), Irène Guessarian (Professeur émérite à l’Université Pierre et Marie Curie, chercheur au Laboratoire d’Informatique Algorithmique : Fondements et Applications), Stéphane Lopès (Maître de Conférences à l’Université de Versailles St-Quentin), Laurent Mounier (Maître de Conférences à l’Université Joseph Fourier, Grenoble), Benjamin Nguyen (Maître de Conférences à l’Université de Versailles St-Quentin), Franck Quessette (Maître de Conférences à l’Université de Versailles St-Quentin), Anne Rasse (Maître de Conférences à l’Université Joseph Fourier, Grenoble), Brigitte Rozoy (Professeur à l’Université de Paris-Sud), Claude Timsit (Professeur à l’Université de Versailles St-Quentin), Thierry Viéville (Directeur de Recherche à l’Institut National de Recherche en Informatique et en Automatique),




Quand le patron de Google donne la leçon à l’Angleterre sur l’éducation

Rex Pe - CC byLittéraire ou scientifique ? Non, littéraire et scientifique !

La fameuse séparation culturelle française semble également de mise en Angleterre. Et selon le Directeur exécutif de Google, Eric Schmidt, elle est fortement handicapante dans le monde d’aujourd’hui.

Il est quelque part étrange de voir une multinationale faire la leçon à un État. Mais telle est l’époque dans laquelle nous vivons, et le pire c’est que Schmidt a raison. La critique fait mal pour un pays qui a été si innovant par le passé.

Il juge en outre tout à fait incohérent de ne pas enseigner l’informatique à l’école[1] pour comprendre comment les logiciels sont conçus plutôt que de se contenter de savoir les utiliser.

La situation est peu ou prou identique en France. Et nous risquons fort d’accompagner, voire devancer, la Perfide Albion dans sa chute si nous n’y faisons rien[2].

Eric Schmidt, président de Google, critique vertement le système éducatif britannique

Eric Schmidt, chairman of Google, condemns British education system

James Robinson – 26 août 2011 – The Guardian
(Traduction Framalang : DéKa)

Schmidt critique la division entre les sciences et les arts et lettres et affirme que le Royaume-Uni « devrait revenir sur les heures de gloire de l’ère victorienne ».

Le président de Google a très violemment critiqué le système éducatif britannique soutenant que le pays a échoué à exploiter sa position dominante en matière d’innovation technique et scientifique.

Au cours de la conférence annuelle Mac Taggard à Edimbourg, Eric Schmidt a évoqué « une dérive vers les sciences humaines » et a critiqué l’émergence de deux champs antagonistes « se dénigrant l’un l’autre, autrement dit, pour reprendre une expression locale, vous êtes soit un lettré, soit un matheux ».

Schmidt s’en est également pris à Lord Sugar, haut responsable du Parti travailliste et star du programme de la BBC The Apprentice, qui a récemment déclaré au cours de l’émission que les « ingénieurs n’étaient pas de bons commerciaux ». Schmidt a confié au MediaGuardian Edinburgh international TV festival : « Au cours du siècle dernier, la Grande Bretagne a brusquement cessé de former et d’encourager ses polymathes. Il faut à nouveau réunir les sciences et les arts ».

Ce vétéran de la technologie, qui a rejoint Google il y a dix ans pour aider les fondateurs Larry Page et Sergey Brin à développer la société, soutient que l’Angleterre devrait se pencher sur ses « heures de gloire » de la période victorienne pour se rappeler que les deux disciplines peuvent travailler ensemble.

« Il fut un temps où c’était les mêmes personnes qui écrivaient des poèmes et fabriquaient des ponts », dit-il, « Lewis Carroll n’a pas uniquement écrit l’un des contes les plus célèbres au monde. Il était également professeur de mathématiques à Oxford. Et Einstein disait de James Clerk Maxwell qu’il n’était parmi seulement l’un des meilleurs physiciens depuis Newton mais aussi un poète confirmé. »

Les commentaires de Schmidt font écho à ceux de Steve Jobs, qui a révélé cette semaine qu’il cessait son activité au sein d’Apple. Ce dernier a un jour confié au New York Times que « si le Macintosh a eu un tel succès c’est parce que les gens qui ont participé à sa conception étaient des musiciens, des artistes, des poètes et des historiens, qui se trouvaient être également d’excellents informaticiens ». Schmidt a rendu hommage à la si réputée innovation britannique, rappelant que le Royaume-Uni avait « inventé les ordinateurs aussi bien en théorie qu’en pratique », avant de souligner que le premier ordinateur de bureau « a été construit en 1951 par J. Lyons, originellement une chaîne de magasin de thé ».

« Cependant », dit il, « le Royaume-Uni n’a pas réussi à concrétiser ses idées pour créer de durables industries dominantes sur le marché ».

« Le Royaume-Uni est le berceau de temps d’inventions liées au médias. Vous avez inventé la photographie. Vous avez inventé la télévision », dit-il, « Pourtant aujourd’hui aucun des grands leaders de ces deux domaines ne provient du Royaume-Uni ». Et d’ajouter : « Merci pour vous innovations et vos brillantes idées. Vous n’en tirez cependant aucun bénéfice à l’échelle mondiale ».

Selon lui, les start-ups britanniques d’une certaine dimension ont toujours fini par se vendre à des sociétés étrangères, alors que c’est le contraire qui devrait se produire. « Le Royaume-Uni apporte un réel soutien à ses petites et moyennes entreprise, mais il n’y a pas grand intérêt faire germer des milliers de graines si c’est pour les laisser dépérir ou les transplanter à l’étranger. Les entreprises britanniques ont besoin d’être défendues pour pouvoir se faire une place sur le marché international, sans avoir à se vendre à des sociétés étrangères. Si vous ne relevez pas ce défi, le Royaume-Uni sera toujours le berceau de l’invention, mais pas du succès à long terme. »

Schmidt a expliqué qu’à force de ne pas enseigner la programmation à l’école, le pays inventeur de l’ordinateur était en train de « se débarrasser d’un important héritage informatique ». « J’étais sidéré », dit-il, « d’apprendre qu’il n’existe même pas d’enseignement de base de l’informatique dans les écoles britanniques aujourd’hui. Votre programme de technologie se concentre sur la manière d’utiliser un logiciel, mais n’explique pas comment il a été conçu. »

Barack Obama a annoncé en juin que les Etats-Unis formeraient 10 000 ingénieurs en plus par an. « J’espère que d’autres vont suivre. Le monde a besoin de plus d’ingénieurs », a continué Schmidt. « Pour que les entreprises innovantes britanniques puissent s’épanouir dans l’avenir digital, vous allez avoir besoin de gens capables de comprendre toutes ses facettes. Prenez exemple sur les Victoriens et ignorez les préjugés d’un Lord Sugar : Intégrez des ingénieurs dans vos sociétés à tous les niveaux, même les plus élevés. »

Notes

[1] Crédit photo : Rex Pe (Creative Commons By)

[2] On pourra également lire l’article de Slate.fr La programmation pour les enfants: et pourquoi pas le code en LV3 ?




Les enfants Montessori et le logiciel libre partagent de nombreux points commmuns

Brian Glanz - CC by-saNée dans un quartier pauvre de Rome il y a plus d’un siècle, l’originale pédagogie Montessori n’a jamais cessé d’essaimer et connaît même un fort regain d’intérêt à l’aube de ce nouveau millénaire qui nous demande une solide capacité d’adaptation aux changements.

Les fondateurs de Google ont été dans une école Montessori. Et le créateur du cèlèbre jeu SimCity en parle en ces termes : « Montessori m’a enseigné la joie de la découverte. Cela m’a montré que l’on pouvait s’intéresser à des théories complexes, comme celles de Pythagore par exemple, en jouant avec des cubes. Il s’agit d’apprendre pour soi-même plutôt que de recevoir l’enseignement du professeur. SimCity est directement issu de Montessori – si vous donnez aux gens ce modèle de construction des villes ils en tireront les principes de l’urbanisme ».

Michael Tiemann, figure du logiciel libre travaillant chez Red Hat mais aussi jeune papa, tente ici de rapprocher les deux domaines parce qu’il y voit de nombreux points communs. L’une de ses hypothèses est qu’un enfant qui aura suivi une méthode Montessori sera plus à même de comprendre, s’intéresser et s’impliquer dans le logiciel libre[1].

Par extension et extrapolation, sera-t-il plus à même de comprendre, s’intéresser et s’impliquer dans le monde d’aujourd’hui mais surtout de demain ?

Remarque personnelle : Je constate que de plus en plus de parents « bobos de gauche urbains » placent leurs enfants dans des écoles privées Montessori, pour l’épanouissement général de l’enfant mais aussi pour échapper à la carte scolaire et l’école publique du quartier.

Montessori et la voie de l’Open Source

Michael Tiemann – 12 août 2011 – OpenSource.com
(Traduction Framalang : ZeHiro et Mammig2)

Montessori and the open source way

J’ai lu avec grand plaisir l’article de Steve Denning « Montessori est-il à l’origine de Google et Amazon ? ». Son argumentaire est solide, il s’appuie sur de nombreux faits scientifiques, et il expose les résultats remarquables que l’on peut obtenir quand nous pouvons Faire confiance à l’enfant. Il écrit si bien et de façon si claire qu’il est inutile que je répète ses propos, vous pouvez (et devriez !) lire directement son article. Mais nous pouvons le compléter, en particulier en comprenant comment les principes et la philosophie de l’open source sont si proches de la méthode éducative de Montessori.

C’est en tant que parent, et assez tardivement, que j’ai découvert l’éducation Montessori. Au début, je ne connaissais strictement rien aux travaux de Montessori, mais l’école de ma fille prenait très au sérieux ses écrits et j’ai ainsi commencé à voir les liens profonds et étroits entre des activités scolaires en apparence simples. Après avoir lu La science derrière le génie, le schéma complet m’est apparu plus clairement, et depuis je suis devenu un fervent partisan de la méthode Montessori.

La thèse Faire confiance à l’enfant, développée par Montessori, repose sur l’idée d’accompagner le développement de l’individu. Montessori a montré que lorsque des enfants sont privés de la possibilité de faire leurs propres choix, alors leur personnalité ne se développe pas complètement, et ils peuvent dépendre beaucoup trop des autres pour prendre des décisions les concernant. Par analogie, l’open source permet à tous les participants, qu’ils soient utilisateurs, développeurs, distributeurs ou mainteneurs de devenir de vrais contributeurs. Cette opportunité encourage non seulement à améliorer le logiciel (dont la qualité peut être perçue comme 100 fois supérieure à celle des logiciels propriétaires), et le plus important est qu’il encourage également les individus à s’améliorer. C’est ce que j’ai pu constater en étant dans l’open source depuis plus de vingt ans et en tant que parent Montessori depuis dix ans.

“Faire confiance à l’enfant” ne se limite pas à observer ce que fera un enfant dans le cadre d’un programme éducatif imposé. Dans l’éducation Montessori, tout l’environnement est disponible pour étudier, et les enfants sont encouragés à passer du temps à l’extérieur, pour observer, inventorier, s’interroger, et chercher les connaissances nécessaires pour répondre à leurs questions. La démarche scientifique est modulaire et évolutive, c’est à dire que des résultats sont obtenus à partir de résultats qui proviennent eux-mêmes d’autres résultats.

Ces résutats scientifiques doivent être reproductibles ou bien ils ne sont pas scientifiquement acceptables. De façon similaire, la modularité naturelle des logiciels open source fait qu’ils deviennent eux-même une forme de science de la programmation. Les modules peuvent être aussi librement utilisés que les résultats scientifiques peuvent être librement reproduits. Et tout comme un grand scientifique essayera de rendre ses résultats aussi simples et accessibles que possible, il existe une forme de reconnaissance similaire pour ceux qui écrivent des logiciels qui sont le plus possible généralistes, portables, et techniquement transparents.

Une valeur primodiale de la méthode Montessori est que l’apprentissage devrait être l’affaire de toute une vie. Denning paraphrase ceci en disant que l’éducation n’est pas une destination mais un voyage. Denning observe également que ceux qui voient dans l’obtention de leurs diplômes universitaires le boût du chemin, se retrouvent dans une impasse en cas de changement. Pour ceux qui envisagent l’apprentissage comme un exercice de longue haleine, alors le changement est simplement une nouvelle opportunité d’apprendre. De la même façon, les logiciels open source ont tendance à avoir un avenir ouvert et en perpétuel développement. De nombreux logiciels et frameworks propriétaires s’élèvent puis chutent car ils sont conçus avec une idée d’achèvement. Au contraire, les logiciels open source sont constament re-écrits, re-inventés et leurs objectifs modifiés. En regardant l’évolution de Linux au court des vingt dernières années je me suis dit : a-t-il déjà existé un système d’exploitation qui ait autant évolué, aussi rapidement et soit allé aussi loin ? Voilà tout le génie d’une vision de l’apprentissage à long terme.

Un dernier point : Les enfants Montessori sont-ils enthousiastes à l’idée de mettre les mains dans le code source ? La réponse evidente vous fournira, s’il en était besoin, une ultime preuve des atomes crochus entre Montessori et l’open source.

Notes

[1] Crédit photo : Brian Glanz (Creative Commons By-Sa)




Librologie 2 : Linus a gagné

Bonjour à tous et à toutes, ami(e)s du Framablog !

Par un heureux hasard du calendrier, la publication de cette nouvelle chronique Librologique coïncide avec le vingtième anniversaire du noyau Linux. Après nous être intéressés à Richard Stallman, c’est donc le moment idéal pour nous pencher sur une autre personnalité marquante du logiciel Libre… Quant à moi, je vous retrouve la semaine prochaine… et d’ici là, dans les commentaires !

V. Villenave.

Librologie 2 : Linus a gagné

Martin Streicher_- CC by-sa - Wikimedia CommonsIl y a tout juste vingt ans, un jeune étudiant en informatique finlandais, Linus Torvalds[1], publie un bout de programme qui deviendra plus tard le noyau du système d’exploitation le plus répandu au monde.

Plus ou moins fortuite, cette édification se fera par tâtonnements mais Linus sait ce qu’il veut et ne se prive pas de le faire savoir : au fil des ans, il se fera remarquer par un nombre impressionnant de citations toujours abruptes, souvent désopilantes, qui en sont venues à constituer sa marque de fabrique, voire sa persona : lire un message de Linus sans pique ni acidité, est toujours décevant.

Parmi ses souffre-douleurs de prédilection, on trouve des programmes (Emacs, GNOME), des techniques de programmation (le langage C++, les micronoyaux, le système de fichiers HFS+), et des entreprises (SCO, Oracle, Microsoft). Il est particulièrement réjouissant pour tout Libriste de voir Torvalds s’en prendre à l’empire de Microsoft, dont la domination hégémonique sur les systèmes d’exploitation remonte aux origines de l’informatique personnelle (et dont la haine des principes Libres n’est plus à démontrer) :

Je vous assure que mon but n’est pas de détruire Microsoft. Ce sera un effet collatéral tout à fait involontaire.

Ou, dans un même ordre d’idées :

Le jour où Microsoft développera des applications pour Linux, cela voudra dire que j’aurai gagné.

Le noyau Linux a donc été fondé il y a plus de vingt ans, et vient d’atteindre sa troisième version majeure. Se combinant avec d’autres programmes du projet GNU, il forme le système d’exploitation GNU/Linux qui s’est répandu dans le monde, particulièrement dans les domaines des serveurs et des supercalculateurs, qu’il domine très largement. Sous une forme plus réduite, le noyau Linux est également embarqué dans la grande majorité des équipements informatiques domestiques et professionnels : télévisions, box Internet, ordinateurs de bord… Enfin il s’est aussi emparé des téléphones mobiles, en particulier avec le système Android développé par l’entreprise Google.

Ce dernier point est d’une actualité brûlante, puisqu’Android est en pleine ascension et dépasse à la fois les mobiles proposés par Microsoft et les iPhone® d’Apple. Les applications Android se multiplient et sont devenues un format de distribution incontournable… y compris pour les concurrents de Google… ce qui inclut Microsoft.

Ce qui nous renvoie, comme l’ont remarqué de nombreux commentateurs ces derniers jours, à la citation que nous évoquions à l’instant :

Android Market - Microsoft

Le paysage a changé. Les marchés à conquérir ne se situent plus sur le bureau des utilisateurs, mais dans les téléphones portables et le « nuage » des services Internet. Microsoft n’a plus, aujourd’hui, d’autre choix que de présenter des applications pour Android, et même de contribuer au code de Linux. Il tire davantage de profit des ventes d’Android que de son propre système d’exploitation mobile.

En d’autres termes, nous y sommes : Linus a gagné.

Ce qui explique l’enthousiasme des Libristes et inconditionnels de l’open source. Le projet Linux, rappelons-le, est développé par une communauté d’informaticiens du monde entier, dont beaucoup sont financés par de grandes entreprises (voir plus bas), mais dont une proportion conséquente est faite de bénévoles qui gagnent leur vie dans des domaines parfois étrangers à l’informatique. De là à voir en la personne de Linus Torvalds un hérault du pro-am il n’y a qu’un pas : la victoire de Linus sur Microsoft serait ainsi une revanche de l’illégitimité.

Joie et liesse : Linus a gagné.

Certes, mais à quel prix ?

D’un point de vue technique, le système Android est certes construit sur le noyau Linux, mais il y apporte une surcouche sous une licence différente, qui ne garantit pas la réciprocité du logiciel Libre digne de ce nom. Des commentateurs ont d’ailleurs fait remarquer combien le développement d’Android diffère de celui de Linux en particulier, et des logiciels Libres en général.

D’un point de vue éthique, le noyau Linux est resté sous la version 2 de la licence GPL, ce qui autorise bien des abus d’un point de vue Libriste : des versions modifiées peuvent en être distribuées sans nécessairement rendre publiques lesdites modifications, les serveurs sous GNU/Linux servent à des sites qui privatisent les données, et assujettissent leurs utilisateurs. Linux a sans doute « gagné », mais certainement pas les libertés civiques — même si le PDG de la Linux Foundation s’en défend.

Linux Mask - Linus TorvaldsCe qui nous invite à nous interroger sur les modalités d’expression de la persona publique de Linus Torvalds. D’une génération (et d’une culture politique) différente de celle de Richard Stallman, il s’oppose volontiers à ce dernier, notamment sur le plan terminologique (dont nous avons vu combien il importe à rms). Parangon du mouvement open source, il se construit une persona inversée (et donc symétrique) de celle de Stallman, et se décrit complaisamment comme non-idéologue et « pragmatiste » — qualificatif que Stallman lui-même, paradoxalement, revendique également — nous y reviendrons.

Attardons-nous un instant sur cette posture à travers trois fragments relativement longs du discours de Torvalds, dont nous allons voir qu’il va bien au-delà des citations-choc.

Je ne crois pas qu’il y ait d’idéologie (dans le projet Linux), et je ne crois pas qu’il *devrait* y avoir d’idéologie. Et ce qui compte ici, c’est le singulier — je pense qu’il peut exister *beaucoup* d’idéologies. Je le fais pour mes propres raisons, d’autres gens le font pour les leurs. Je pense que le monde est un endroit compliqué, et que les gens sont des animaux intéressants et compliqués qui entreprennent des choses pour des raisons complexes. Et c’est pour cela que je ne crois pas qu’il devrait y avoir *une* idéologie. Je pense qu’il est très rafraîchissant de voir des gens travailler sur Linux parce qu’ils peuvent rendre le monde meilleur en propageant la technologie et en la rendant accessible à plus de monde — et ils pensent que l’open source est un bon moyen d’accomplir cela. C’est _une_ idéologie. Et une excellente, pour moi. Ce n’est pas vraiment pour cette raison que j’ai entrepris Linux moi-même, mais cela me réchauffe le cœur de le voir utilisé en ce sens. Mais je pense _aussi_ qu’il est génial de voir toutes ces entreprises commerciales utiliser de l’open source tout simplement parce que c’est bon pour les affaires. C’est une idéologie entièrement différente, et je pense qu’elle est, elle aussi, parfaitement acceptable. Le monde serait _nettement_ pire si l’on n’avait pas d’entreprises réalisant des choses pour de l’argent. Aussi, la seule idéologie qui m’inspire vraiment du mépris et de l’aversion est celle qui consiste à exclure toutes les autres. Je méprise les gens dont l’idéologie est « la seule véritable », et pour qui s’éloigner de ces règles morales en particulier est « mal » ou « malfaisant ». Pour moi, c’est juste mesquin et stupide. Donc, le plus important dans l’open source, n’est pas l’idéologie — il s’agit simplement que tout le monde puisse l’utiliser pour ses propres besoins et ses propres raisons. La licence de copyright sert à maintenir en vie cette notion d’ouverture, et à s’assurer que le projet ne se fragmente pas au fil des gens qui garderaient cachées leur améliorations, et donc doivent ré-inventer ce qu’ont fait les autres. Mais la licence n’est pas là pour imposer telle ou telle idéologie.

Ces propos de Torvalds méritent d’être ici reproduits in extenso. Tout d’abord parce qu’ils suffisent à mettre en mouvement notre détecteur de mythes : on y retrouve une vision prétendument « naturelle » des choses, ainsi qu’une propension à s’abstraire de toute implication ou responsabilité éthique : « le mythe, écrit Roland Barthes, est une parole dépolitisée ». Et de fait, il n’est pas rare qu’un discours qui rejette toute idéologie ait pour fonction de masquer une idéologie sous-jacente, le plus souvent contre-révolutionnaire : nous y reviendrons prochainement.

Est-ce le cas ici ? Linus Torvalds prête certainement le flanc à de telles accusations, en particulier dans ses rapports vis-à-vis des grandes entreprises (le développement de Linux, et le salaire de Linus lui-même, a fait l’objet de nombreux financements d’entreprises, en particulier IBM).

Cependant son point de vue ne me semble pas dépourvu d’ambiguïtés : ainsi, loin de les rejeter, il prend acte des motivations « idéologiques » de certains contributeurs et utilisateurs, et s’en déclare même proche.

Autre ambiguïté primordiale : Torvalds est, et demeure, cet informaticien brillant qui prit un jour la décision, là où rien ne l’y obligeait, de publier son travail sous une licence Libre (la GPL), dans le but explicite d’ouvrir au monde entier, sans distinction de provenance ni de capital, des outils techniques (et par extension, une forme de connaissance, comme nous allons également le voir) :

À l’origine, explique-t-il en 1997, j’avais publié Linux et son code source complet sous un copyright qui était en fait bien plus contraignant que la GPL : il n’autorisait aucun échange d’argent quel qu’il soit (c’est-à-dire que non seulement je ne voulais pas essayer d’en tirer profit moi-même, mais j’interdisais à quiconque de le faire).

(…)

Je voulais que Linux soit aisément disponible sur ftp, et je voulais qu’il ne soit onéreux pour _personne_. (…) Je ne me sentais pas rassuré vis-à-vis de la GPL au début, mais je voulais témoigner ma reconnaissance pour le compilateur GCC (du projet GNU) dont Linux dépendait, et qui était bien sûr GPL.

Rendre Linux GPL est sans aucun doute la meilleure chose que j’aie jamais faite.

Les paradoxes ne manquent pas ici, à commencer par cette reconnaissance qu’exprime spontanément Linux Torvalds envers le projet GNU, lui qui se refusera pourtant toujours à dire « GNU/Linux » plutôt que seulement « Linux » pour désigner le système d’exploitation Libre… Autre paradoxe intéressant au plus haut point : nous voyons ici que c’est la licence GNU GPL qui est venue libérer Linus lui-même de ses craintes, en particulier vis-à-vis de l’exploitation commerciale de son travail.

Le dernier fragment sur lequel je voudrais m’arrêter ici est une interview recueillie dix ans plus tard, sur laquelle Torvalds revient sur sa (non-) « idéologie » personnelle :

Je pense que l’open source est la bonne voie à suivre, de la même façon que je préfère la science à l’alchimie : tout comme la science, l’open source permet aux gens d’ajouter leur pierre à l’édifice solide de la connaissance pré-existante, plutôt que de se cacher de manière ridicule.

Cependant je ne crois pas qu’il faille considérer l’alchimie comme « malfaisante ». Elle est juste hors de propos : on ne pourra évidemment jamais réussir aussi bien barricadé chez soi qu’au grand jour avec des méthodes scientifiques.

C’est pourquoi la FSF (de Richard Stallman) et moi divergeons sur des notions fondamentales. J’adore absolument la GPL version 2 — qui incarne ce modèle de « développer au grand jour ». Avec la GPL v.2, nous tenions quelque chose où tout le monde pouvait se retrouver et partager selon ce modèle.

Mais la FSF semble vouloir changer ce modèle, et les ébauches de la GPL version 3 ne servent plus à développer du code au grand jour mais à déterminer ce que l’on peut faire de ce code. Pour reprendre l’exemple de la science, cela reviendrait à dire que non seulement la science doit être ouverte et validée par des pairs, mais qu’en plus on vous interdit de vous en servir pour fabriquer une bombe.

Et ce dernier exemple de « fabriquer des bombes » donne lieu, à son tour, à un nouveau paradoxe : les arguments soulevés ici par le créateur du noyau Linux trouvent un écho frappant dans certaines prises de position de… Richard Stallman. J’en veux pour illustration la critique toute pragmatique que fait la FSF d’une licence « Hacktiviste », la HESSLA, dont le propos est précisément d’interdire tout usage des logiciels qui ne serait pas conforme aux droits de l’Homme (dans un même ordre d’idées, on lira avec intérêt la licence CrimethInc. N© !, que je découvre à l’instant et qui vaut également son pesant de cacahuètes). Un autre exemple du pragmatisme de Stallman est à trouver dans la migration de Wikipédia vers les licences Creative Commons en 2008.

Le pragmatisme n’est donc pas nécessairement une posture de mercenaire, et le discours de Linus Torvalds (particulièrement si on le considère sur les deux décennies écoulées) me semble plus ambigu que celui d’un programmeur sans éthique ou d’un entrepreneur sans foi ni loi. Certes, Torvalds n’est ni un intellectuel ni un philosophe, et sa culture politique semble celle d’un simple spectateur. Cependant son propos apparaît comme pleinement politique, même lorsqu’il s’agit d’affirmer la neutralité idéologique du code qu’il écrit :

Je n’aime pas les DRM moi-même, mais en fin de compte je me vois comme un « Oppenheimer ». Je refuse que Linux soit un enjeu politique, et je pense que les gens peuvent utiliser Linux pour tout ce qu’ils veulent — ce qui inclut certainement des choses que je n’approuve pas personnellement.

La GPL exige qu’on publie les sources du noyau, mais ne limite pas ce qu’on peut faire avec le noyau. Dans l’ensemble, ceci est un exemple de plus de ce pourquoi rms me traite de « seulement un ingénieur », et pense que je n’ai pas d’idéaux.

(En ce qui me concerne, ce serait plutôt une vertu : essayer d’améliorer le monde un tant soit peu sans essayer d’imposer ses propres valeurs morales aux autres. Vous pouvez faire ce qui vous chante, je m’en fous, je suis seulement un ingénieur qui veut faire le meilleur système d’exploitation possible.)

Cette position me renvoie à la phrase faussement attribuée à Voltaire sur la liberté d’expression (« je ne suis pas d’accord avec ce que vous dites, mais je me battrai jusqu’à la mort pour que vous ayez le droit de le dire »), et qui est en fait d’origine anglo-saxonne. L’on sait combien cet esprit post-Lumières (d’ailleurs plus ou moins bien compris), qui défend la liberté comme un absolu, est important aux États-Unis : peut-être n’est-ce pas un hasard si c’est dans ce pays qu’est né le mouvement Libre… Et si c’est de ce même pays que Torvalds a récemment acquis la nationalité.

Alors, Linus a-t-il gagné ? Pour un personnage aussi marquant et aussi vocal, il est étrange qu’on ne l’ait que très peu entendu s’exprimer sur l’avènement d’Android. La sortie du noyau Linux version 3, coincidant avec le 20e anniversaire du projet, s’est faite dans le calme et avec une humilité remarquable, et j’avoue n’avoir vu passer aucun message de Linus Torvalds revendiquant sa « victoire » — laquelle est pourtant acquise et incontestable, pour douce-amère qu’elle puisse être par ailleurs.

Linux a gagné, mais seulement en se rendant acceptable par les entreprises : c’est-à-dire sous une forme dégradée, aseptisée, dépolitisée dirait Barthes, débarrassée du « bazar » idéologique que représente le mouvement Libre, et que d’aucuns (à commencer par Richard Stallman) voient comme essentiel. Essentiel d’un point de vue intellectuel, puisque le mouvement Libre se pense originellement comme un mouvement social ; primordial également d’un point de vue affectif, le logiciel et la culture Libre reposant souvent sur des communautés de bénévoles dont la motivation n’est jamais tout à fait exempte de composantes idéalistes ou romantiques — et auxquelles Linus lui-même, nous l’avons vu, n’a pas toujours été étranger.

Ce sont ces valeurs et cet esprit que voile, sous l’aspect d’une victoire technique, l’avènement du noyau Linux sous ses avatars et déclinaisons plus ou moins lointaines. Et la victoire que promettait le jeune Linus d’il y a vingt ans, semble aujourd’hui faire tristement défaut au triomphe d’un Torvalds quadragénaire.

Notes

[1] Crédit photo : Martin Streicher (Creative Commons By-Sa)




Le cauchemar des droits d’auteur du « I Have a Dream » de Martin Luther King

Bo Hughins - CC by-saTout le monde connaît le fameux discours « I Have a Dream » de Martin Luther King[1], datant de 1963 et considéré comme l’un des plus marquants du siècle dernier. Un discours fort et épique, un discours épris de liberté. Et pourtant…

Entre temps, la Sorcière Copyright est passée par là et cela fait mal au cœur de constater que l’on peut ainsi s’approprier notre Histoire commune plus de 48 ans après les faits.

Je fais un autre rêve moi ce soir…

Sinon rendez-vous en 2038 pour la libération du discours, à moins que l’on ait encore d’ici là rallongé la limite des ayants droit !

PS : On trouve quand même la vidéo sur Dailymotion, mais à la lecture de l’article ci-dessous, je doute que ce soit bien légal.

« I Have a Dream » ou le cauchemar des droits d’auteur

The Copyright Nightmare of “I Have a Dream”

Alex Pasternack – 29 août 2011 – MotherBoard
(Traduction Framalang : Julien, Slystone, Pandark et Gilles)

Si vous n’étiez pas né pour être présent lors du discours de Martin Luther King « Je fais un rêve » au Washington Mall, il y a 48 ans cette semaine, vous pourriez tenter d’aller sur le bon vieux YouTube et de le rechercher. Mais vous ne le trouverez ni ici ni nulle part ailleurs ; les droits d’utilisation en sont réservés à King et à sa famille.

Typiquement, un discours diffusé à un large public à la radio et à la télévision (et considéré comme ayant joué un rôle dans les changements politiques et classé comme le discours le plus important dans l’histoire américaine du XXe siècle) semblerait être un candidat de premier choix pour le domaine public. Mais le dilemme des droits d’auteurs a commencé en décembre 1963, lorsque King a attaqué en justice les sociétés Mister Maestro, Inc. et Twentieth Century Fox Records pour arrêter la vente non autorisée d’enregistrements du discours de 17 minutes.

Puis, en 1999, dans l’affaire héritiers de Martin Luther King, Jr. contre CBS, Inc., un juge a établi que le discours était une représentation distribuée aux médias d’information et non au public, en faisant une « publication restreinte » en opposition à une « publication générale ». Cela signifie que le discours, tout comme les autres « représentations » sur CBS, n’était pas dans le domaine public. Ce qui signifie également que les héritiers de King pouvaient prétendre détenir les droits d’auteur et avaient qualité pour poursuivre CBS, qui avait utilisé un extrait du discours dans un documentaire de 1994 intitulé « Le XXe siècle avec Mike Wallace ».

Cette revendication avait déjà été faite. En 1994, le quotidien USA Today a payé aux héritiers de King 10 000 $ en frais d’avocats et de justice en plus d’un montant de 1 700 $ de frais de licence après avoir publié le discours complet sans autorisation ; les héritiers ont également poursuivi le producteur de documentaires Henry Hampton, l’accusant d’utilisation non autorisée de l’image et des paroles du Dr King dans la série télévisée culte de 1987 « Eyes on the Prize ».

Martin Luther King vs Fox

Illustration : « Martin Luther King, Jr. contre Mister Maestro, Inc. et Twentieth Century-Fox Record Company », première page.

Un autre élément crucial dans la réclamation de droit d’auteur lors de la succession : alors que King lui-même a revendiqué son droit d’auteur sur le discours un mois après sa prestation, sa demande a été considérée comme valide car aucune copie « concrète » du discours n’avait été distribuée auparavant (la décision était basée sur la loi pour le droit d’auteur précédente, datant de 1909, et non la loi de 1975 appliquée aujourd’hui).

Et pourtant, en raison d’un arrangement à l’amiable passé entre CBS et la famille en dehors du tribunal pour un montant non divulgué, la loi ne s’est jamais intéressée au problème du droit d’auteur sur le discours. Aujourd’hui, la version audio du discours peut être difficile à obtenir, et une version non abrégée de la vidéo est introuvable dans la mémoire culturelle du catalogue de Youtube (cf cette vidéo pour démonstration). Des extraits du discours peuvent toujours être utilisés dans des conditions de fair use bien sûr, comme cela a été le cas avec cette analyse de la rhétorique du discours de King, mais personne ne connaît les limites de cette exception, du moins pas avant qu’ils ne reçoivent une lettre des avocats de la famille de King. Le même principe vaut, par exemple, pour les papiers de Richard Nixon, que sa famille a vendus au gouvernement pour 18 millions de dollars.

Joseph Beck, un expert dans le domaine de la propriété intellectuelle mais aussi avocat de la famille King qui s’est retrouvée sans beaucoup de ressources après la mort de Martin Luther King, affirmait au journal Washington Post en 2006 : « La famille de King a toujours défendu un accès au discours et à la vidéo dans des objectifs d’éducation et encourage les personnes intéressées à contacter le King Center à Atlanta. »

Sur le site de la famille, des enregistrements vidéo et audio peuvent être achetés pour $10. La famille contrôle le droit d’auteur du discours pour une durée de 70 ans après la mort de King, jusqu’en 2038.

Jusque là, vous aurez sans doute moins de difficultés à trouver la version d’ABBA de « I Have a Dream » que celle du King.

Notes

[1] Crédit photo : Bo Hughins (Creative Commons By-Sa)