Programme d’informatique dès l’école primaire ?

La France a fait le choix depuis de nombreuses années de considérer l’informatique à l’école et jusqu’au collège, uniquement à travers ses usages via le B2I. L’Éducation nationale perçoit le numérique comme un outil utile aux autres apprentissages.

Cette vision n’est pas forcément mauvaise mais elle semble trop restrictive. Le numérique ne peut se limiter à son seul usage au service des autres disciplines. Il pourrait être pertinent de mettre en place un réel enseignement de l’informatique comme il en existe dans d’autres pays ou même en France (mais seulement en option au lycée).

Les programmes de l’école primaire étant en pleine ré-écriture actuellement, Serge Abiteboul, Jean-Pierre Archambault, Gérard Berry, Colin de la Higuera, Gilles Dowek et Maurice Nivat ont envoyé au Conseil supérieur des programmes ce texte, que nous reproduisons ci-dessous, présentant les grandes orientations de ce que pourrait être un programme d’informatique à l’école primaire.

Informatique à l'école - cc-by-sa - Lupuca

Proposition d’orientations générales pour un programme d’informatique à l’école primaire

URL d’origine du document (EPI)

Ce texte propose des orientations générales permettant de structurer un futur programme d’informatique à l’école primaire.

Comme dans les autres disciplines fondamentales, la sensibilisation précoce aux grands concepts de la science et technique informatique est essentielle. Elle donne des clés aux élèves pour comprendre le monde qui les entoure, elle évite que se forgent des idées fausses et représentations inadéquates, elle fabrique un socle sur lequel les connaissances futures pourront se construire au Collège et au Lycée. À l’École, il est important de montrer les liens qui unissent les concepts de l’informatique et ceux enseignés dans les autres disciplines, ainsi que ceux qui les unissent aux objets familiers que les élèves utilisent tous les jours. Sur ces deux points, nous pouvons nous appuyer sur des expériences longues et riches d’enseignements menées en France et hors de France.

Ces orientations s’inscrivent aussi dans une vision plus globale : après cette première sensibilisation à l’École primaire, vient le temps, au Collège, de l’acquisition de l’autonomie puis, au Lycée, celui de la maîtrise des concepts. Il est important de veiller à la progressivité et à la cohérence des programmes pour l’École, le Collège et le Lycée.

La question décisive de la formation des Professeurs n’est pas traitée dans ce document. Disons simplement qu’il nous semble essentiel que les Écoles supérieures du professorat et de l’éducation intègrent une formation, mais surtout une certification, en informatique.

L’école primaire doit être le temps de la découverte des concepts fondamentaux de l’informatique, celui où l’on parle aux élèves, avec leurs mots, à partir de leur quotidien et de leurs connaissances acquises dans les autres disciplines, d’informations, de langages de programmation, d’algorithmes et de machines. L’enseignement de l’informatique à l’École nous semble être trop souvent limité à l’utilisation d’ordinateurs et de logiciels créés par d’autres. Cette vision dénature une discipline scientifique et technique qui donne un rôle essentiel à l’abstraction et à l’expérimentation personnelle. Faire de l’informatique ne consiste pas à passer des heures devant un écran, mais à acquérir des notions fondamentales et universelles. L’initiation à l’informatique doit donc n’être liée ni à un ordinateur particulier, ni à un logiciel particulier, ni à un langage particulier. Elle doit par ailleurs chercher un équilibre entre des activités fondées sur l’utilisation d’un ordinateur et des activités « débranchées », c’est-à-dire ne recourant pas à une telle utilisation.

Des logiciels aux concepts

Les activités s’effectuant avec un ordinateur débutent avec l’apprentissage des logiciels les plus courants : logiciel de courrier électronique, navigateur, moteur de recherche, logiciel de traitement de texte, tableur, etc. Cet apprentissage ne doit pas rester une fin en soi, mais aussi conduire à s’interroger sur le fonctionnement de ces objets, menant ainsi à découvrir certains concepts de l’informatique.

Beaucoup d’élèves, par exemple, savent envoyer un courrier électronique, mais ils ne cherchent pas toujours à savoir comment un tel message arrive dans la boîte aux lettres de son destinataire. Pourtant l’apprentissage de l’utilisation d’un logiciel de courrier électronique est une occasion de les amener à se poser cette question et à y chercher des réponses. Cette interrogation, cette énigme, peut être l’occasion d’une recherche collective, chaque élève proposant une hypothèse et critiquant celles des autres. Elle peut donner lieu à une contextualisation historique : l’acheminement d’un courrier électronique n’est peut-être pas si différente de l’acheminement d’un courrier postal, qui fonctionnait déjà dans l’Antiquité quand les ordres militaires irriguaient de vastes empires. Cette question permet donc d’introduire la notion de réseau – les ordinateurs sont reliés entre eux par des câbles ou par voie aérienne – et de routage – un message doit trouver son chemin dans le labyrinthe que constituent ces milliards d’ordinateurs reliés entre eux.

Le Web et ses logiciels — navigateurs, moteurs de recherche, etc. — permet de poursuivre la réflexion sur ces questions, mais aussi d’en poser de nouvelles. L’acheminement du contenu d’une page d’un serveur Web jusqu’à l’ordinateur de l’école suit les mêmes principes que l’acheminement d’un courrier électronique. À un certain niveau d’abstraction rien ne distingue un courrier du contenu d’une page web, et les méthodes permettant d’acheminer l’un permettent également d’acheminer l’autre. Mais de nouvelles questions apparaissent : quelle est l’origine des informations auxquelles on accède ? Qui écrit ? Où les informations sont-elles enregistrées ? Comment sont-elles identifiées ? Les élèves peuvent même concevoir leur propre page web et devenir ainsi des participants actifs du Web ; c’est le meilleur moyen de comprendre que n’importe qui peut dire n’importe quoi dans une page web, et de s’interroger sur la pertinence de l’information que l’on y trouve. Le Web est aussi l’occasion d’aborder la question de la recherche des pages contenant certains mots-clés, fondée sur la notion d’indexation : les moteurs de recherche recherchent d’abord les documents qui contiennent des occurrences des mots signifiants de la question qu’on leur pose. L’indexation conduit à une réflexion sur le sens d’un texte, puisqu’elle vise à identifier ce dont le texte parle, même si cette réflexion est souvent réduite à l’identification de mots clés. Or, la compréhension et l’extraction du sens d’un texte sont parmi les buts fondamentaux de l’enseignement de la langue ; il faut désormais y adjoindre une initiation à l’indexation et une réflexion critique sur la pertinence d’un texte vis-à-vis d’une question posée.

L’initiation à l’informatique doit aussi passer par la découverte des concepts fondamentaux de langage, d’information, d’algorithme et de machine, sans toujours utiliser un ordinateur pour cela.

Des langages simples

Un langage formel se distingue d’une langue naturelle par sa spécialisation, son caractère artificiel, le caractère limité de son lexique et la simplicité des règles qui régissent sa grammaire. Un exemple simple est le langage formé de quatre mots : « nord », « sud », « est » et « ouest » et d’une construction, la séquence, qui permet de former des suites de tels mots. Ce langage permet d’indiquer un chemin à suivre sur une grille carrée, par exemple sur le carrelage du préau d’une école. L’expression « nord, nord, nord, est, est, est, sud, sud, sud, ouest, ouest, ouest » indique ainsi à un élève de se déplacer de trois carreaux vers le nord, puis de trois carreaux vers l’est, puis de trois carreaux vers le sud et enfin de trois carreaux vers l’ouest, parcourant ainsi un carré sur le sol.

Ce même mouvement peut être exprimé dans un autre langage qui ne comprend que trois mots : « avancer », « tourner à droite » et « tourner à gauche », composés par l’opération de séquence : « avancer, avancer, avancer, tourner à droite, avancer, avancer, avancer, tourner à droite, avancer, avancer, avancer, tourner à droite, avancer, avancer, avancer, tourner à droite ».

L’apprentissage de ces deux langages permet de mettre en place de nombreuses activités et de poser de nombreux problèmes. Une première activité consiste à interpréter les instructions données par un autre élève ou à trouver la phrase qui commande d’aller d’un point du préau à un autre. C’est le jeu du « robot idiot ». Ce problème est le même que celui de la conception d’un programme dans un langage tel que Logo (il y a de nombreux enseignements à tirer de l’utilisation de Logo à l’École primaire), mais où un élève joue le rôle de l’avatar informatique afin de mieux s’approprier le lien qui s’établit entre une expression du langage et une action. On peut ensuite passer à des exercices plus élaborés, comme la traduction d’une expression d’un langage dans un autre – par exemple une expression formée dans le premier des langages présentés ci avant dans le second –, la mise en évidence de la redondance d’un langage – par exemple, un « tourner à gauche » pourrait être remplacé par une séquence de trois « tourner à droite ». Il est aussi possible d’évoquer dans une telle activité la notion de bug : une petite erreur dans une instruction exprimée dans le second langage, par exemple un « tourner à droite » de trop, change complètement la trajectoire et envoie l’élève n’importe où.

Ce type d’activité permet aussi d’aider les élèves à comprendre, dans un cadre très simplifié, quelques-uns des traits essentiels de la langue écrite : son caractère conventionnel, la nécessité de règles et la correspondance entre les mots et les actions. Elle leur permet aussi de comprendre qu’il est possible de calculer, non avec des nombres, mais avec des mots.

Des langages moins simples

Ces activités débranchées peuvent mener à des activités sur machine, par exemple à des activités de programmation dans un langage tel que Scratch, développé au Massachusets Institute of Technology spécialement pour enseigner la programmation à l’École. Il permet d’assembler visuellement des instructions et de créer des tests et des boucles, afin d’animer de petits personnages. Ce langage est emblématique de cette démarche ludique où les élèves créent des objets informatiques, d’abord par un simple dessin, puis les animent et augmentent leurs savoir-faire au fur et à mesure de leur découverte personnelle des possibilités offertes. De telles activités de programmation – ou de codage – sont aujourd’hui fréquemment proposées aux élèves hors de l’École. Les mettre en œuvre pour tous les élèves permettra à toutes et tous de profiter de ce type d’apprentissages essentiel dans le monde dans lequel nous vivons.

D’autres activités autour de la notion de langage sont liées à la programmation de robots physiques animés par des algorithmes. Les clubs de robotique développent ce type d’activités et leur efficacité auprès des enfants est un fait avéré.

Des activités plus difficiles peuvent être proposées à la fin de l’école primaire : des exercices visant au rangement, à la classification de données, à l’analyse de multiples situations combinatoires simples, à la recherche d’objets ayant certaines propriétés dans un ensemble fini d’objets. Les expériences menées hors de France et en France, à l’École et hors de l’École, montrent qu’il est possible d’aller assez loin dans cette direction, même avec de jeunes enfants.

La notion d’information

La notion d’information est aussi une formidable clé pour entrer dans l’informatique. La première notion à transmettre est celle de représentation : toute information peut être représentée par une suite de lettres dans un alphabet fini, par exemple par une suite de 0 et de 1. Les images, les sons, les textes, les nombres ont tous une représentation en machine, qui permet de les mémoriser, de les transmettre, de les transformer et de les reproduire à l’infini. Il est possible dès l’école primaire d’introduire l’atome d’information, le bit, et de se demander combien de bits sont nécessaires pour représenter une information. Pour exprimer si la lumière est allumée ou éteinte, un bit suffit, alors que pour décrire la couleur des cheveux d’une personne – bruns, châtains, blonds ou roux – deux bits sont nécessaires. Pour décrire une couleur parmi les 16 777 216 du système RVB, vingt-quatre bits suffisent. Ici apparaît la notion de quantité d’information contenue dans un message, qui est, en première approximation, sa taille.

Ces notions peuvent être introduites par des jeux. On peut, par exemple, proposer un langage pour coder un petit dessin en noir et blanc : il faut pour cela décomposer le dessin en pixels, puis coder chaque pixel, qui est ou bien noir ou bien blanc, par un bit. Par exemple, en supposant que 1 code pour un pixel noir et 0 pour un pixel blanc, la suite de vingt bits 11111000111100011111 représente un dessin bi-dimensionnel :

1 1 1 1
1 0 0 0
1 1 1 1
0 0 0 1
1 1 1 1

ou encore

Deux élèves ou groupes d’élèves, de part et d’autre d’un paravent, peuvent ainsi s’échanger, par oral, des dessins sur une grille de vingt-cinq ou cent pixels. Il est cependant probable que des erreurs apparaissent lors de la transmission, ce qui sera l’occasion de s’interroger sur la manière de corriger ces erreurs, par exemple en introduisant une forme de redondance dans le message. Il est aussi possible d’envoyer les bits à l’envers, du dernier au premier, et de s’interroger sur l’effet de cette transformation sur le dessin.

La notion d’algorithme

Un algorithme est une manière de résoudre un problème en effectuant des opérations élémentaires mécaniquement et donc sans réfléchir. Tout algorithme doit s’exprimer d’une part dans une langue naturelle, ce qui est nécessaire pour sa compréhension, et d’autre part dans un langage technique précis, ce qui est indispensable pour faire en sorte que la machine puisse l’effectuer automatiquement. Les algorithmes qui transforment des symboles écrits – addition, soustraction, déclinaisons, conjugaisons, etc. – sont aussi anciens que l’écriture. Mais l’humanité a bien entendu utilisé des algorithmes avant même la naissance de l’écriture, pour tisser des étoffes, tailler des silex, etc.

Comme les notions de langage et d’information, la notion d’algorithme peut s’aborder par des activités « débranchées ». L’initiation peut commencer par l’identification d’algorithmes simples que les élèves utilisent tous les jours : pour s’habiller il faut mettre son tee-shirt avant son pull ; pour faire une tarte aux pommes, il faut mettre les pommes avant la cuisson de la pâte, mais pour une tarte aux fraises, il faut mettre les fraises après la cuisson.

Une deuxième étape est une interrogation sur les constructions qui permettent d’exprimer un algorithme :

  • la séquence : faire ceci puis cela ;
  • le test : si telle condition est vérifiée, alors faire ceci, sinon faire cela ;
  • la boucle : faire ceci trois fois, ou alors répétitivement jusqu’à ce que telle condition soit vérifiée.

La notion d’algorithme est une formidable opportunité de relier l’informatique aux autres disciplines enseignées à l’École telles le français, les mathématiques ou les travaux manuels, car beaucoup des connaissances enseignées dans ces disciplines se formulent sous la forme d’algorithmes. Par exemple, l’algorithme de l’addition de deux nombres de trois chiffres décimaux peut être décomposé en une boucle à l’intérieur de laquelle se trouvent des instructions élémentaires en séquence : la lecture d’un chiffre de chacun des nombres et de la retenue, la consultation d’une table qui permet d’ajouter trois chiffres, l’écriture d’un chiffre du résultat et celle de la retenue. De nombreux exercices de mathématiques proposés en cycle 2 nécessitent la mise en œuvre d’un algorithme, souvent formé d’une unique boucle, mais où les notions de donnée, d’instruction, de test, de terminaison apparaissent clairement.

Avant même l’apprentissage de l’algorithme de l’addition, l’apprentissage de l’art de compter des objets recèle une possibilité de poser plusieurs questions d’informatique. Quoi que l’on compte, il faut commencer par choisir arbitrairement un élément auquel on attribue le nombre 1, puis choisir un deuxième élément, distinct du premier, lui attribuer le nombre 2, etc. Des questions essentielles apparaissent : comment se saisir d’un élément, lui attribuer un nombre et le marquer afin de ne pas le compter deux fois, tout en n’oubliant aucun élément dans l’énumération. Cette question du marquage est résolue de façons différentes selon les objets comptés : s’il s’agit des billes contenues dans un sac, on se munit d’un deuxième sac dans lequel on transfère une à une les billes déjà comptées. Si on compte des croix dessinées sur un cahier, on les entoure d’un cercle. Mais quel algorithme utilise-t-on pour compter les tuiles sur un toit ? Ou les arbres dans une forêt ?

De même l’accord d’un participe passé peut se décomposer en deux tests imbriqués, l’un sur le verbe auxiliaire utilisé, l’autre sur la présence d’un complément d’objet situé avant le verbe. Ces algorithmes s’apprennent en mathématiques, en français, etc., par imitation d’exemples de difficulté graduelle. En informatique, il est possible de porter un nouveau regard plus systématique sur certains de ces algorithmes et de montrer comment ils se construisent à partir des constructions de séquence, test et boucle. Il est aussi possible de commencer à sensibiliser les élèves au fait que ce sont les mêmes constructions qui permettent de construire les algorithmes appris en français, en mathématiques ou en travaux manuels, anticipant ainsi la notion d’universalité, qui sera développée dans la suite du cursus des élèves.

La notion de machine

La notion de machine peut paradoxalement, elle aussi, être abordée par des activités débranchées. Il est par exemple possible de montrer aux élèves combien il est difficile pour eux de se comporter comme des robots, et de les amener à s’interroger sur l’origine de cette difficulté.

Le jeu du « robot idiot » peut être réutilisé ici, non pour réfléchir à la notion de langage, mais à celle d’architecture des machines. On peut fabriquer de petites cartes avec les mots « avancer », « tourner à gauche », « tourner à droite » et donner au robot humain un paquet de cartes qui est son « programme ». L’élève n’a désormais plus le droit d’écouter ce que lui disent ses camarades, mais doit uniquement lire une carte, exécuter une action et passer à la carte suivante. Pour d’autres programmes, tels le programme de l’addition, on pourra lui adjoindre des boites en carton – des variables – dans lesquelles il pourra stocker une valeur. Il illustrera alors le fonctionnement d’un processeur qui lit une instruction, exécute une action et passe à l’instruction suivante.

Il est aussi utile d’attirer l’attention des élèves sur quelques éléments clés de l’histoire des machines. On pourra leur raconter comment les Péruviens calculaient avec des ficelles couvertes de nœuds – les kipu –, et comment un boulier sert de béquille à notre mémoire : on y « pose » les chiffres des nombres à additionner en déplaçant les boules, tandis que l’accumulation des boules permet d’additionner. On peut montrer la conception au XIXe siècle, de machines munies d’un moteur qui ne nécessitaient pas d’intervention humaine pour effectuer un calcul. Enfin au XXe siècle, illustrer la révolution conceptuelle des premiers ordinateurs, machines capables d’exécuter non plus un calcul particulier mais n’importe quel calcul, ce qui demande un langage pour les programmer.

Évoquer les machines du passé, du boulier au minitel, permet de s’interroger sur ce qui est invariant dans l’histoire des machines à traiter de l’information comme les concepts de représentation, d’algorithme, de langage, la généralité de l’ordinateur, etc. et, au contraire, de ce qui évolue constamment : la vitesse de calcul et la capacité des machines, leur taille, leurs domaines d’application, leur liaison avec le monde physique etc. Cela permet aussi de développer un sens de l’histoire : comment vivions-nous, comment communiquions-nous, comme cherchions-nous de l’information avant l’informatique ?

Un enseignement adapté à l’élève et à son rapport au monde

Ce qui est ébauché dans ce document répond à des objectifs spécifiques aux élèves de l’École primaire. Nous avons cherché à proposer des activités ludiques mais instructives au sens profond du terme, et adaptées aux connaissances et aux capacités des élèves. Mais l’essentiel n’est pas là. Il est d’abord dans le fait que l’informatique est une science et une technique faite d’abstractions, et que ces abstractions ne sont pas accessibles aux élèves directement. Elles doivent être appréhendées à travers des situations concrètes et de l’expérimentation personnelle. C’est le levier des activités débranchées, qui propose aux enfants de manipuler des concepts à travers des gestes de leur propre corps et la manipulation d’objets familiers. Ensuite, à partir de sept ans, les enfants entrent dans l’âge des « pourquoi », mais à un niveau métaphorique. On doit donc leur proposer des explications, certes provisoires, des concepts informatiques, mais en mettant en place un vocabulaire précis qui leur permettra en grandissant d’affiner et d’enrichir les concepts associés aux mots.

Les activités débranchées sont complémentaires des activités avec un ordinateur, notamment l’apprentissage des logiciels les plus courants et l’utilisation des logiciels pédagogiques disponibles sur les ordinateurs et les tablettes, par exemple ceux d’apprentissage de la lecture, qui conduisent aussi à se poser des questions d’algorithmique humaine et mécanique.

On dira « langage », « information », « algorithme », « machine » et les enfants grandiront en se souvenant que l’information est aussi une quantité qui se mesure, qu’un langage peut être une forme de codage très rudimentaire, qu’une méthode devient un algorithme quand on a éliminé tous les implicites de la langue ordinaire et qu’une machine n’est qu’un outil qui permet d’exécuter des algorithmes.

Le 6 décembre 2013

Serge Abiteboul, Professeur au Collège de France (2012), membre de l’Académie des sciences, membre du Conseil National du Numérique.

Jean-Pierre Archambault, Président de l’association Enseignement Public et Informatique (EPI).

Gérard Berry, Professeur au Collège de France, membre de l’Académie des sciences et de l’Académie des technologies.

Colin de la Higuera, Président de la Société Informatique de France (SIF).

Gilles Dowek, Directeur de recherche à l’INRIA, Grand Prix de philosophie de l’Académie Française.

Maurice Nivat, membre de l’Académie des sciences.

Ce document a été envoyé au Conseil Supérieur des Programmes (CSP), le samedi 7 décembre 2013.

Crédit photo : Lupuca (Creative Commons By-Sa)




En forme de lettre ouverte au nouveau ministre de l’Éducation

L’article ci-dessous de Jean-Pierre Archambault évoque avec brio les enjeux éducatifs du libre et des standards ouverts.

Antérieur à sa nomination, il n’a pas été rédigé en direction de Vincent Peillon. Nous avons néanmoins choisi de l’interpeller en modifiant son titre tant il nous semble important de ne plus perdre de temps et de faire enfin des choix clairs et assumés en la matière[1].

S’il n’y avait qu’un document à lire sur l’éducation, ce serait peut-être celui-là…

One Laptop per Child - CC by

Enjeux éducatifs du libre et des standards ouverts

Jean-Pierre Archambault – janvier 2012 – EPI


La connaissance est universelle. Son développement, sa diffusion et son appropriation supposent de pouvoir réfléchir, étudier, produire, travailler ensemble, aisément et dans l’harmonie. Il faut pour cela des règles communes, des normes et standards.

Ouvert/fermé ?

Mais il y a standard (ouvert) et standard (fermé). « On entend par standard ouvert tout protocole de communication, d’interconnexion ou d’échange et tout format de données inter-opérables et dont les spécifications techniques sont publiques et sans restriction d’accès ni de mise en oeuvre »[2]. Cette définition « rend obligatoire l’indépendance des protocoles et des formats de données vis-à-vis des éditeurs, des fabricants et des utilisateurs de logiciels ou de systèmes d’exploitation ainsi que la mise à disposition de spécifications techniques documentées et non soumises à des royalties en cas de brevet. Mais elle permet que la mise à disposition sans restriction d’accès des spécifications, ou leur mise en oeuvre soit payante contre un paiement forfaitaire raisonnable (destiné par exemple à couvrir les frais relatifs à cette publication ou à la maintenance administrative des normes par leur éditeur) ».

Il y a de plus en plus d’immatériel et de connaissance dans les richesses créées et les processus de leur création. Conséquence, depuis des années, des processus de marchandisation sont en cours touchant des domaines d’activité qui relevaient prioritairement de l’action publique[3]. Cela vaut pour l’informatique en général et les TICE en particulier, mais aussi pour toute la connaissance scientifique, les semences, les médicaments et la santé, les savoirs ancestraux, l’eau, l’énergie, le vivant, la création artistique, les données publiques… et les ressources pédagogiques et l’éducation. Pédagogie et économie se trouvent ainsi étroitement mêlées. La pédagogie se situe pleinement au coeur des enjeux économiques, sociaux, culturels du monde actuel.

Les questions de l’accès et de la mise en oeuvre étant primordiales, normes et standards s’interpénètrent fortement avec les questions de propriété intellectuelle, ce qui amenait Michael Oborne, responsable du programme de prospective de l’OCDE, à dire, en 2002, que « la propriété intellectuelle deviendra un thème majeur du conflit Nord-Sud »[4]. On pourrait ajouter Nord-Nord.

D’abord à la demande du gouvernement américain, puis de la plupart des pays industrialisés, la protection des droits de propriété intellectuelle est devenue partie intégrante des négociations de l’Organisation Mondiale du Commerce (OMC). C’est ainsi qu’a été négocié puis adopté l’accord sur les ADPIC (Accord sur les Aspects des Droits de Propriété Intellectuelle qui touchent au Commerce). Des normes sont imposées dans le cadre du commerce international. Des accords bilatéraux ou régionaux les renforcent. Ainsi ceux qui interdisent aux agences nationales du médicament de s’appuyer sur les résultats d’essais cliniques attestant de l’efficacité et de l’innocuité de molécules déjà commercialisées pour autoriser la mise sur le marché de génériques[5].

Imposer son standard, fermé, c’est acquérir une position dominante sur un marché, voire de monopole. Avec un format de fichier fermé, on verrouille un marché. L’informatique était libre à ses débuts. Son développement grand public a signifié la suprématie d’une informatique propriétaire avec ses formats et ses standards fermés. L’informatique libre s’est constituée en réaction à cette situation. Et ses partisans ne cessent de souligner qu’informatique libre et standards ouverts sont les deux faces d’un même combat. « L’approche des logiciels libres est intrinsèquement une réponse majeure aux impératifs de compatibilité, d’interopérabilité et d’échange puisque, le code source étant donné, “on sait tout”. Les spécifications sont publiques et il n’y a pas de restriction d’accès ni de mise en oeuvre »[6]. Nous présenterons donc les logiciels et les ressources libres, leurs licences notamment, leurs enjeux sociétaux et éducatifs. Ils sont à la fois des réponses concrètes à des questions de fabrication d’un bien informatique et outil conceptuel pour penser les problématiques de l’immatériel et de la connaissance.

La tendance au monopole de l’informatique grand public

Dans l’économie de l’immatériel en général, les coûts marginaux, correspondant à la production et la diffusion d’un exemplaire supplémentaire, tendent vers zéro. Les coûts fixes sont importants et les dépenses afférentes sont engagées avant que le premier exemplaire ne soit vendu. Les acteurs dominants sont donc en position de force.

Les externalités de réseau jouent également en leur faveur. En amont, un fabricant de composants, des développeurs de logiciels choisiront la plate-forme la plus répandue qui, de ce fait, le sera encore plus. En aval, les consommateurs se tournent prioritairement vers les grands éditeurs de logiciels, y voyant un gage de pérennité (confondant en la circonstance entreprise et produit, que l’on pense aux versions successives accélérées d’une même application sans que leur compatibilité soit assurée), un réseau dense d’assistance, de la compétence. Et un directeur informatique minimise ses risques face à sa hiérarchie, en cas de problèmes, en choisissant l’acteur dominant.

Enfin, l’acteur dominant propriétaire verrouille le marché, s’étant rendu incontournable avec ses standards et formats fermés. Par exemple, les utilisateurs de son traitement texte ne peuvent pas lire les fichiers réalisés par les usagers du traitement de texte d’un nouvel entrant sur le marché qui, eux, ne peuvent pas lire les fichiers des utilisateurs, beaucoup plus nombreux, du traitement de texte de l’acteur dominant. Or, quand on écrit un texte, c’est souvent pour que d’autres le lisent… Ces pratiques de verrouillage qui empêchent la communication, dissuadent l’adoption d’un nouveau produit concurrent et sont des entraves à la diversité et au pluralisme. La non-compatibilité est sciemment organisée pour des raisons commerciales qui vont à l’encontre des intérêts des utilisateurs.

Ce genre de situations se retrouve avec d’autres logiciels, ainsi ceux des TNI quand ils ne permettent pas de transférer un scénario pédagogique d’un environnement à un autre. Il en va autrement avec les standards et formats ouverts et avec les logiciels libres dont les auteurs font en sorte que leurs utilisateurs lisent et produisent des fichiers aux formats des logiciels propriétaires correspondants (en général une quasi compatibilité).

Les logiciels libres

Les logiciels libres s’opposent aux logiciels propriétaires, ou privatifs. Quand on achète ces derniers, en fait on achète le droit de les utiliser dans des conditions données, très restrictives. Pour cela, seul le code exécutable, code objet, est fourni.

En revanche, avec les logiciels libres, on bénéficie des quatre libertés suivantes. On peut :

  • les utiliser, pour quelque usage que ce soit,
  • en étudier le fonctionnement et l’adapter à ses propres besoins (l’accès au code source est une condition nécessaire),
  • en redistribuer des copies sans limitation aucune,
  • les modifier, les améliorer et diffuser les versions dérivées au public, de façon à ce que tous en tirent avantage (l’accès au code source est encore une condition nécessaire).

Ces libertés ne sont accordées qu’à la condition d’en faire bénéficier les autres, afin que la chaîne de la « vertu » ne soit pas interrompue, comme cela est le cas avec un logiciel du domaine public quand il donne lieu à une appropriation privée.

La licence GNU-GPL (General Public License), la plus répandue, traduit au plan juridique cette approche originale qui concilie le droit des auteurs et la diffusion à tous de la connaissance. Elle constitue une modalité particulière de mise à disposition d’une richesse créée. La licence GNU-GPL correspond bien à la nature du bien informatique, à la façon dont il se crée, dans des processus cumulatifs de correction des erreurs et d’amélioration du produit par les pairs, les développeurs et les utilisateurs. Elle est pertinente, contrairement au brevet qui signifie procès en contrefaçons à n’en plus finir et donc frein à l’innovation, à la création. Elle n’interdit aucunement des activités commerciales, de service essentiellement. Elle s’inscrit dans une philosophie de libre accès à la connaissance et de son appropriation par tous.

Pour lever certaines incertitudes, liées à la diffusion de logiciels libres sous licence de source américaine, le CEA, le CNRS et l’INRIA ont élaboré CeCILL, la première licence qui définit les principes d’utilisation et de diffusion des logiciels libres en conformité avec le droit français, reprenant les principes de la GNU-GPL[7]. La vocation de cette licence est d’être utilisée en particulier par les sociétés, les organismes de recherche et établissements publics français et, plus généralement, par toute entité ou individu désirant diffuser ses résultats sous licence de logiciel libre, en toute sécurité juridique.

La notion de logiciel libre n’est pas synonyme de gratuité, même si les tarifs pratiqués sont sans commune mesure avec ceux de l’informatique commerciale traditionnelle[8]. Il y a toujours la possibilité de se procurer un logiciel libre sans bourse délier. Les logiciels libres jouent un rôle de premier plan dans la régulation de l’industrie informatique. Ils facilitent l’entrée de nouveaux arrivants, favorisent la diversité, le pluralisme et la concurrence. Il peut arriver que la problématique de la gratuité brouille le débat. Elle n’est pas le problème. Les produits du travail humain ont un coût, la question étant de savoir qui paye, quoi et comment. La production d’un logiciel, qu’il soit propriétaire ou libre, nécessite une activité humaine. Elle peut s’inscrire dans un cadre de loisir personnel ou associatif, écrire un programme étant un hobby comme il en existe tant. Elle n’appelle alors pas une rémunération, la motivation des hackers (développeurs de logiciels dans des communautés) pouvant résider dans la quête d’une reconnaissance par les pairs. En revanche, si la réalisation se place dans un contexte professionnel, elle est un travail qui, toute peine méritant salaire, signifie nécessairement rémunération. Le logiciel ainsi produit ne saurait être gratuit, car il lui correspond des coûts. Mais, même quand un logiciel n’est pas gratuit, il doit le devenir lorsqu’il a été payé (par exemple, les collectivités ne doivent pas payer cent fois le même produit en agissant en ordre dispersé). C’est le cas quand il est sous licence libre. Autre chose est de rémunérer des activités de service sur un logiciel devenu gratuit (installation, adaptation, évolution, maintenance…). Même si, ne versons pas dans l’angélisme, la tentation existe de ne pas développer telle ou telle fonctionnalité pour se ménager des activités de service ultérieures.

Le paradigme de la recherche scientifique

L’approche du logiciel libre relève du paradigme de la recherche scientifique, ce qui a sa cohérence puisque l’informatique est une science ! À l’information, préoccupation structurelle majeure de la recherche correspond la publication du code source des logiciels. À la validation par les pairs correspond le débogage par des centaines, des milliers de programmeurs disséminés sur toute la planète. Comme on est plus intelligents à plusieurs que tout seuls, la qualité est (souvent) au rendez-vous. Et il y a les libertés de critiquer, d’amender, d’approfondir…

Les mathématiques sont libres depuis 25 siècles, depuis le temps où Pythagore interdisait à ses disciples de divulguer théorèmes et démonstrations. Or, à ses débuts, d’une manière qui était donc quelque peu paradoxale, l’approche du logiciel libre était perçue comme « nouvelle ». Alors que c’est le logiciel propriétaire qui l’est, depuis une trentaine d’années avec l’émergence d’un marché grand public. Il est vrai aussi que la « république des sciences » n’est plus ce qu’elle était, que le principal fil conducteur de la recherche scientifique devient la création de monopoles privés au détriment de la production de connaissances. Jean-Claude Guédon plaide pour l’accès libre aux résultats de la recherche afin de rétablir la « grande conversation ». Cette dérive de la science est notamment « justifiée » par le fait qu’il faut bien évidemment rémunérer les chercheurs. Le statut public de l’enseignant-chercheur a gardé toute sa pertinence : rémunération pour des activités pédagogiques (cours…) et résultats de la recherche, partie intégrante du patrimoine de l’humanité, mis à la disposition de tous. Point n’est donc besoin de multiplier les brevets. De plus, le partage valorise le chercheur, permet l’accès du Sud (et du Nord !) à la connaissance et le développement d’applications au bénéfice de tous.

Des modèles économiques

Donner un logiciel ? Il y a encore quelques années régnait un certain scepticisme. La réalité est passée par là. La majorité des serveurs Web de par le monde sont développés avec le logiciel libre Apache. Tous les constructeurs informatiques ont une politique, et des budgets, en matière de libre. Idem pour les entreprises en général. Linux est désormais un acteur à part entière du marché des systèmes d’exploitation et des serveurs (c’est le cas pour la quasi-totalité des environnements informatiques de l’administration centrale du ministère de l’Éducation nationale et des rectorats)… Les administrations et les collectivités locales se tournent effectivement vers le libre car l’argent public ne doit servir qu’une fois et, dès lors qu’il a été payé, un logiciel est gratuit.

Il y avait pourtant des antécédents célèbres. Au début des années 80, la DGT (Direction générale des télécommunications, le « France Télécom » de l’époque) a mis à disposition gratuitement le Minitel, un terminal qui coûtait cher, 4 ou 5 000 F. Coup de génie. Des millions d’utilisateurs, un Internet avant la lettre (en Grande Bretagne, échec retentissant car il fallait acheter le terminal). Et toute une économie de services qui s’est développée. Et beaucoup de communications téléphoniques. La démarche est fondamentalement la même avec les appareils photos bon marché qui génèrent plein de photos que l’on fait développer. Ou avec ces imprimantes très peu chères, et ces cartouches qui le sont davantage. Sans parler de Rockfeller qui distribuait des lampes à pétrole… La démarche gagne encore en pertinence dans le domaine de l’immatériel, dans le domaine des logiciels qu’il faut installer, personnaliser, modifier, maintenir… Choisir le libre pour une collectivité c’est aussi contribuer à substituer à une politique d’achat de licences des activités de service favorisant le développement de l’emploi local.

Au-delà des programmeurs, tous concernés

Une analogie avec la comptabilité nationale qui est publique. Tout le monde peut la consulter. Certes très peu le font. Pourtant c’est très important que l’on puisse le faire. C’est pareil avec les logiciels. Que fait exactement le système d’exploitation propriétaire d’un ordinateur quand une application dialogue avec votre machine alors que vous êtes connecté sur Internet ? Vous ne le savez pas. Peut-être communique-t-il à autrui le contenu de votre disque dur ? Gênant pour un individu. Et pour un État qui a confié son informatique, et ses secrets, au logiciel propriétaire d’une société étrangère. Et tout cela n’est pas que de la fiction. Cela existe dans la réalité. Ce simple exemple montre donc que tout le monde, informaticien ou non, est concerné par le fait que le code source d’un logiciel soit accessible.

Le libre est une réalité économique. Certains parlent alors d‘Open Source et de ses qualités : commodité, rentabilité, efficacité, fiabilité. Libre/Open source ? Il faut distinguer Open Source et logiciel libre. Pour Richard Stallman, fondateur du logiciel libre, à l’origine du projet GNU et de la GPL, le libre est une philosophie, une conception de la société à ne pas confondre avec l‘Open Source. Il a l’habitude dans ses conférences sur l’histoire du logiciel libre (en France en tout cas), de faire une référence appuyée à la devise « Liberté-Egalité-Fraternité ». Il s’agit de promouvoir un changement social par une action technique. L’enjeu est la liberté de l’utilisateur, le contrôle de son informatique.

Au-delà de l’informatique, les ressources pédagogiques

Le paysage de l’édition scolaire s’est profondément transformé de par l’irruption de l’informatique et des réseaux. Et du libre dont on pu rapidement constater une transférabilité à la production d’autres ressources immatérielles, tant du point de vue des méthodes de travail que de celui des réponses apportées en termes de droit d’auteur. C’est le cas des ressources pédagogiques et tout le monde a en tête les réalisations remarquables de l’association Sésamath. Cette association est synonyme d’excellence en matière de production pédagogique et de communauté d’enseignants-auteurs-utilisateurs. Sésamath a reçu une mention d’honneur pour le prix 2007 Unesco-Roi Hamad Bin Isa Al-Khalifa sur l’utilisation des technologies de l’information et de la communication dans l’éducation. L’Unesco a décidé d’attribuer une mention spéciale au projet de manuel libre « pour la qualité de ses supports pédagogiques et pour sa capacité démontrée à toucher un large public d’apprenants et d’enseignants ». L’association a également été récompensée aux Lutèce d’Or (Paris capitale du libre).

D’évidence, il existe des auteurs par milliers, des acteurs multiples (enseignants, associations, institutions, collectivités territoriales) qui mettent en place des coopérations souples et diverses. Certes, de tout temps les enseignants ont réalisé des documents en préparant leurs cours. Mais, avant la banalisation des outils numériques de production des contenus (traitement de texte, présentation, publication) et le développement d’Internet qui donne à l’auteur un vaste public potentiel qui peut aisément reproduire les documents qu’il a récupérés, qui en bénéficiait ? Les élèves du professeur. Des collègues de son lycée. Des élaborations collectives de sujets existaient pour des contrôles communs. Mais, rappelons-nous qu’à cette époque les photocopieuses étaient rarissimes et l’usage de la machine à alcool avait un côté pour le moins fastidieux. Au-delà de ces premiers cercles proches, les choses se compliquaient encore davantage. Il fallait mettre en forme le manuscrit et la machine à écrire manquait de souplesse. Et en cas de projet de manuel, l’éditeur constituait le passage obligé, et tout le monde n’était pas élu. On lui accordait d’autant plus facilement des droits sur la production des oeuvres que l’on ne pouvait pas le faire soi-même. Les conditions de cet exercice délicat de production de ressources pédagogiques ont radicalement changé. La conséquence en est la profusion de ressources éducatives sur Internet. Ce nouveau paysage constitue pour les enseignants et le service public d’éducation, une opportunité et, pour les éditeurs traditionnels, une obligation de se repositionner. Les technologies de l’information et de la communication contribuent à modifier les équilibres et les positions anciennement installés. Leur « enfant chéri », le manuel scolaire, est entré dans une période de turbulences avec le manuel numérique.

Le pourquoi de la propriété intellectuelle

À ce stade, il n’est pas inutile de rappeler le pourquoi du droit d’auteur et des brevets afin de ne pas se laisser enfermer dans des arguties de convenance. L’objectif fondamental est de favoriser la création des richesses, au nom de l’intérêt général, et pour cela il faut concilier incitation à l’innovation et diffusion technologique, dépasser le dilemme entre performance individuelle et efficacité collective, inciter les entreprises individuelles à l’innovation en leur garantissant une situation de monopole temporaire dans l’exploitation des droits. Et, plus encore que par le passé, l’incitation à l’innovation n’a de sens que si la technologie se diffuse et irrigue l’ensemble de la structure dont elle participe ainsi à l’amélioration de l’efficience collective. Les limitations à la libre circulation de l’information et de la connaissance ne se justifient en dernière instance que par l’objectif d’encourager et de valoriser le travail intellectuel quand il est au service de tous. Le risque existe de justifier dans une dialectique un peu spécieuse des pratiques commerciales par une prééminence d’un droit qui serait immuable, ou de déclarer illégitime une réflexion sous le prétexte qu’elle serait iconoclaste au regard d’une législation en vigueur.

En son temps, Victor Hugo disait que « le livre, comme livre, appartient à l’auteur, mais comme pensée, il appartient – le mot n’est pas trop vaste – au genre humain. Toutes les intelligences y ont droit. Si l’un des deux droits, le droit de l’écrivain et le droit de l’esprit humain, devait être sacrifié, ce serait, certes, le droit de l’écrivain, car l’intérêt public est notre préoccupation unique, et tous, je le déclare, doivent passer avant nous »[9].

Rendons hommage à Boris Vian pour sa vision prémonitoire de certains « débats » qui nous occupent aujourd’hui. Auteur-compositeur-interprète, musicien de jazz, écrivain… et centralien, dans En avant la zizique[10], il pointait une relation conflictuelle, en observant l’attitude du commerçant qui intime à l’artiste de « se contenter de son talent et de lui laisser l’argent » et qui s’ingénie souvent « à brimer ce qu’il a fait naître en oubliant qu’au départ de son commerce il y a la création ». Boris Vian remarquait que « le commercial se montrait également agressif par rapport au bureau d’études qui s’apprêtait à lui porter un coup dont il ne se relèverait pas, à savoir l’automation de ses fonctions ». Et de lui conseiller d’en profiter car cela ne durerait pas éternellement !

Les licences Creative Commons

La numérisation des oeuvres et de la connaissance en général, et leur diffusion sur Internet posent avec une acuité sans pareille le problème de l’usage que l’on peut en faire. Des millions d’utilisateurs ont accès à des millions d’oeuvres, grandes ou petites. Difficile d’imaginer que leur utilisation puisse passer par une demande d’autorisation. De ce point de vue, le copyright est un non-sens sur Internet. La loi doit pouvoir être applicable. D’où la pertinence de la démarche de Creative Commons dans laquelle l’auteur, en mettant à disposition sa création sur la Toile, indique ce que les internautes peuvent en faire.

La démarche est issue de la licence GPL qui, bien adaptée aux logiciels, n’en a pas moins une portée plus large. Mais il serait absurde de vouloir transposer tel quel ce modèle aux créations de l’esprit, d’une manière indifférenciée. Les modalités juridiques doivent tenir compte de la spécificité d’un bien. Un morceau de musique, par exemple, n’est ni une oeuvre littéraire, ni une documentation informatique ou une ressource pédagogique. On peut, également, souhaiter la diffusion d’un article sans pour autant permettre des modifications successives, au terme desquelles on ne reconnaîtrait plus l’original. Une chose est sa diffusion et sa libre circulation sans contraintes, pour que l’on puisse réagir, approfondir, critiquer… autre chose est son éventuelle dénaturation ou disparition de fait. Dans pareil cas, on parlera plutôt de « ressource à diffusion libre ». Par ailleurs, la légalité se doit d’être morale. Les médecins, qui importent illégalement des copies de médicaments sous brevet pour soigner des malades, se moquent éperdument de savoir si leur geste est légal ou non : il est vital tout simplement. La légalité est aussi une notion relative. Ainsi, le laboratoire indien Cipla, qui produit des traitements antirétroviraux contre le sida en copiant des molécules des firmes pharmaceutiques occidentales, protégées par des brevets, est-il un « pirate » ? Non, car la législation indienne ne reconnaît pas les brevets sur les médicaments. Cipla est donc une entreprise parfaitement légale, au regard de la loi de son pays[11].

L’objectif général, clairement exprimé, est de favoriser la diffusion et l’accès pour tous des oeuvres de l’esprit, la production collaborative, en conciliant les droits légitimes des auteurs et des usagers. Il reste à en définir les modalités juridiques permettant une circulation fluide des documents et, si nécessaire, leur modification. Le projet Creative Commons s’y emploie. Il a vu le jour à l’université de Standford, au sein du Standford Law School Center for Internet et Society, à l’initiative notamment de Lawrence Lessing. Il s’agit d’adapter le droit des auteurs à Internet et de fournir un cadre juridique au partage sur la Toile des oeuvres de l’esprit. L’économie de l’édition ne peut plus se confondre avec celle du support des oeuvres, maintenant qu’elles ne sont plus attachées à un support unique, le livre par exemple. Il faut redéfinir les utilités sociales, les raisons d’être.

Creative Commons renverse le principe de l’autorisation obligatoire. Il permet à l’auteur d’autoriser par avance, et non au coup par coup, certains usages et d’en informer le public. Il est ainsi autorisé d’autoriser ! Métalicence, Creative Commons permet aux auteurs de se fabriquer des licences, dans une espèce de jeu de LEGO simple, constitué de seulement quatre briques. Première brique, Attribution : l’utilisateur, qui souhaite diffuser une oeuvre, doit mentionner l’auteur. Deuxième brique, Commercialisation : l’auteur indique si son travail peut faire l’objet ou pas d’une utilisation commerciale. Troisième brique, non-dérivation : un travail, s’il est diffusé, ne doit pas être modifié. Quatrième brique, Partage à l’identique : si l’auteur accepte que des modifications soient apportées à son travail, il impose que leur diffusion se fasse dans les mêmes termes que l’original, c’est-à-dire sous la même licence. La possibilité donnée à l’auteur de choisir parmi ces quatre composantes donne lieu à onze combinaisons de licences. Grâce à un moteur de licence proposé par le site de Creative Commons, l’auteur obtient automatiquement un code HTML à insérer sur son site qui renvoie directement vers le contrat adapté à ses désirs.

« Localisation » des ressources

Si chacun a vocation à produire ses propres ressources, la coopération internationale et des formes de solidarité numérique c’est aussi l’adaptation de celles réalisées par l’autre[12]. Avec le libre, chaque communauté peut prendre en main la localisation/culturisation qui la concerne, connaissant ses propres besoins et ses propres codes culturels mieux que quiconque. Il y a donc, outre une plus grande liberté et un moindre impact des retours économiques, une plus grande efficacité dans le processus, en jouant sur la flexibilité naturelle des créations immatérielles pour les adapter à ses besoins et à son génie propre. C’est aussi plus généralement ce que permettent les « contenus libres », c’est-à-dire les ressources intellectuelles – artistiques, éducatives, techniques ou scientifiques – laissées par leurs créateurs en usage libre pour tous. Logiciels et contenus libres promeuvent, dans un cadre naturel de coopération entre égaux, l’indépendance et la diversité culturelle, l’intégration sans l’aliénation.

L’exception pédagogique

La réalité montre que numérique, droit d’auteur et pédagogie entretiennent des liens étroits. Les enseignants utilisent leurs propres documents ainsi que les productions de l’édition scolaire, dont la raison d’être est de réaliser des ressources pour l’éducation, et qui bien évidemment doit en vivre. Ils utilisent également des ressources qui n’ont pas été réalisées explicitement pour des usages scolaires. Cela est vrai pour toutes les disciplines, mais particulièrement dans certaines d’entre d’elles comme l’histoire-géographie, les sciences économiques et sociales ou la musique : récitation d’un poème, lecture à haute voix d’un ouvrage, consultation d’un site Web… Ces utilisations en classe ne sont pas assimilables à l’usage privé. Elles sont soumises au monopole de l’auteur dans le cadre du principe de respect absolu de la propriété intellectuelle. Cela peut devenir mission impossible, tellement la contrainte et la complexité des droits se font fortes. Ainsi pour les photographies : droits du photographe, de l’agence, droit à l’image des personnes qui apparaissent sur la photo ou droit des propriétaires dont on aperçoit les bâtiments… Difficile d’imaginer les enseignants n’exerçant leur métier qu’avec le concours de leur avocat ! Mais nous avons vu les licences Creative Commons qui contribuent, en tout cas sont un puissant levier, à développer un domaine public élargi de la connaissance. Et la GNU-GPL et le CeCILL qui permettent aux élèves et aux enseignants de retrouver, dans la légalité, leurs environnements de travail sans frais supplémentaires, ce qui est un facteur d’égalité et de démocratisation.

L’exception pédagogique, c’est-à-dire l’exonération des droits d’auteurs sur les oeuvres utilisées dans le cadre des activités d’enseignement et de recherche, et des bibliothèques, concerne potentiellement des productions qui n’ont pas été réalisées à des fins éducatives. Elle reste posée avec une acuité accrue dans le contexte du numérique. L’activité d’enseignement est désintéressée et toute la société en bénéficie. L’enjeu est de légaliser un « usage loyal » de ressources culturelles au bénéfice des élèves, dans le cadre de l’exercice de leur métier7.

L’immatériel et la connaissance

Dans les colonnes du Monde diplomatique, en décembre 2002, John Sulston, prix Nobel de médecine, évoquant les risques de privatisation du génome humain, indique que « les données de base doivent être accessibles à tous, pour que chacun puisse les interpréter, les modifier et les transmettre, à l’instar du modèle de l’open source pour les logiciels ». Ce propos illustre la question de savoir si le modèle du libre préfigure des évolutions en termes de modèles économiques et de propriété intellectuelle (droit d’auteur, brevets).

Il y a relativement de plus en plus de biens immatériels. Et de plus en plus d’immatériel et de connaissance dans les biens matériels et dans les processus de création de la richesse. La dialectique coopération-espaces publics/concurrence-enclosures est universelle[13]. Quel est le terme de la contradiction qui est le plus efficace pour produire des richesses à l’heure de l’entrée dans l’économie du savoir dans laquelle l’immatériel et la connaissance jouent un rôle de plus en plus décisif ? On sait que la connaissance fuit la clôture. Et l’approche du libre a montré concrètement sa pertinence pour produire des biens de connaissance de qualité, des biens communs informatiques mondiaux. Alors…

Jean-Pierre Archambault
Président de l’EPI
(Enseignement Public et Informatique)

Paru initialement dans la revue Frantice.net n° 4, Normes et standards éducatifs : état, enjeux et perspectives, janvier 2012, p. 77-85.

Notes

[1] Crédit photo : One Laptop per Child (Creative Commons By)

[2] Voir, dans la loi française nº 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique, cette définition d’un standard ouvert (Titre Ier, De la liberté de communication en ligne, Chapitre 1er, La communication au public en ligne, article 4).

[3] « L’école et les TIC : marchandisation/pédagogie », Jean-Pierre Archambault, Revue de l’EPI n° 101, mars 2001, p. 35-45.

[4] Dossier Le vivant, nouveau carburant de l’économie, Le Monde Économie du mardi 10 septembre 2002.

[5] Libres savoirs – Les biens communs de la connaissance, ouvrage coordonné par l’association Vecam.

[6] Tout logiciel est écrit par un programmeur dans un langage « évolué », et comporte des instructions qui en constituent le « code source » ; ce code est ensuite compilé en « code objet », c’est-à-dire transformé en une suite quasi incompréhensible de 0 et de 1, de manière à être exécuté par l’ordinateur. Par exemple, l’instruction conditionnelle suivante est écrite dans un langage évolué : « si x=5 alors x=x+4 » ; cette ligne de code source est parfaitement compréhensible (on effectue un test sur le contenu de la variable informatique x, puis, selon le résultat, on procède ou non à l’affectation d’une nouvelle valeur à la variable x) ; compilée, il lui correspond un code objet (011101000…), interprétable par la machine, mais effectivement incompréhensible pour un humain.

[7] « Numérique, droit d’auteur et pédagogie », Jean-Pierre Archambault, Terminal n° 102, Automne-Hiver 2008-2009, édition l’Harmattan, p. 143-155.

[8] « Gratuité et prix de l’immatériel », Jean-Pierre Archambault, Médialog n° 72, décembre 2009, p. 40-43.

[9] Discours d’ouverture du Congrès littéraire international, Victor Hugo, 17 juin 1878, in Jan Baetens, Le combat du droit d’auteur, Les impressions nouvelles, Paris 2001, p. 158.

[10] 1958, édition Le livre contemporain.

[11] Il reste à s’assurer que le contexte est toujours exactement le même et si des « accords » dans le cadre OMC ne sont malheureusement pas passés par là.

[12] « Solidarité numérique avec des logiciels et des ressources libres », Jean-Pierre Archambault, EpiNet n° 111, janvier 2009.

[13] « Coopération ou concurrence ? », Jean-Pierre Archambault, Médialog n° 48, décembre 2003, p. 40-43.




Avec SILLAGES l’esprit du libre gagne les grandes écoles

L’association SILLAGES.info a été créée en octobre 2011.

L’ambition de l’initiative SILLAGES est de développer une production collaborative de contenus pédagogiques multimédias contribuant à l’ouverture Sociale et InternationaLe de LAccès aux Grandes EcoleS, et notamment de développer un échange pédagogique avec des universités étrangères souhaitant mieux préparer leurs étudiants aux exigences spécifiques des grandes écoles françaises[1].

Nous avons rencontré deux acteurs de l’initiative SILLAGES : Nathalie Van de Wiele, chef de projet, et Jean-Pierre Archambault, responsable de la communication.

Tulane Public Relations - CC by

Framablog : vous proposez des ressources que vous qualifiez de libres[2]

Nathalie Van de Wiele : oui. L’initiative SILLAGES est à l’origine de la création de deux sites complémentaires disponibles sur internet : une plate-forme et un wiki. Ces sites comptent près de 500 ressources pluridisciplinaires libres et gratuites de niveau L0, L1 ou L2, portant sur les mathématiques, la physique, l’économie, la littérature, le grec ancien, le latin, …

Les ressources SILLAGES pouvant aussi être utiles aux enseignants, elles sont publiées sous licence « Creative Commons » pour une utilisation optimale (elles peuvent ainsi être réutilisées, transformées, modifiées, complétées), les auteurs SILLAGES devant se conformer à la législation en vigueur en terme de droits d’auteurs. Nous avions choisi la licence CC BY – NC avec la possibilité de remixer l’oeuvre. Pour que les choses soient plus claires, nous allons ajouter SA ! SILLAGES menant des partenariats avec les Universités numériques thématiques (UNT), les ressources déposées sur la plate-forme sont référencées par les UNT afin de rendre ces ressources également accessibles par les sites des UNT partenaires (à ce jour UNISCIEL et UOH).

Framablog : la mise en place de ces sites a été dictée par deux aspects essentiels, liés tous deux à la mission même de l’initiative SILLAGES : d’une part, l’aspect « ouverture sociale » et d’autre part, l’aspect « ouverture internationale »; à qui s’adressent vos sites ?

Nathalie Van de Wiele : en terme d’ouverture sociale, les sites SILLAGES s’adressent :

  • aux étudiants abordant l’enseignement supérieur avec des bagages scolaires différents,
  • aux étudiants de milieu modeste éprouvant des difficultés en classes préparatoires,
  • aux étudiants en formation L1 ou L2 préparant leur entrée en grande école.

En terme d’ouverture internationale, ils s’adressent :

  • aux étudiants étrangers désirant entrer en classes préparatoires ou en grande école en France,
  • aux étudiants étrangers n’ayant pas d’accès facile à des bibliothèques et voulant compléter leurs supports pédagogiques.

Framablog : vous proposez des ressources en grec ancien…

Nathalie Van de Wiele : Michèle Tillard, professeur de lettres classiques au lycée Montesquieu du Mans, est l’auteure de nombreux documents concernant le grec ancien et la préparation au programme du concours d’entrée à l’ENS de Lyon, documents disponibles sur la plate-forme ou le wiki SILLAGES, les deux types de ressources étant reliées par des liens hypertextes : un cours complet pour hellénistes débutants, en cours d’élaboration ; un cours de version grecque, sous forme de feuilleton, et en complément, un « kit de survie de l’helléniste » regroupant les principales notions grammaticales sous forme de fiches ; un cours sur l‘Icaroménippe de Lucien (programme de l’ENS Lyon, 2012) ; des fiches de vocabulaire grec.

D’autres cours sont en projet, en particulier sur les œuvres latines et grecques de l’option « Lettres classiques » du concours d’entrée de l’ENS Lyon, à paraître prochainement.

Framablog : et des ressources en sciences physiques…

Nathalie Van de Wiele : Olivier Granier, professeur de physique au lycée Montesquieu du Mans en classe de spéciales PC, a souhaité placer sur la plate-forme SILLAGES de nombreux documents personnels (polycopiés de cours, séances de travaux dirigés, résolution de problèmes de concours, polycopiés de travaux pratiques d’électronique et d’optique), couvrant ainsi l’ensemble du programme de Physique des classes préparatoires au grandes écoles scientifiques et des universités scientifiques (niveau L1 et L2).

Olivier Granier, par ailleurs administrateur de la plate-forme SILLAGES, reçoit d’ailleurs régulièrement des messages électroniques d’utilisateurs souhaitant des informations complémentaires sur les études qu’ils suivent, posant des questions sur tels ou tels points du cours ou demandant encore des précisions sur la résolution d’un exercice.

Framablog : pouvez-vous nous préciser l’apport pour les étudiants étrangers ?

Jean-Pierre Archambault : J’ai eu le plaisir de suivre au sein de SILLAGES deux étudiants de l’ESIA (Ecole supérieure d’informatique, électronique, automatique) chargés d’un projet visant à mieux faire connaître les ressources SILLAGES.

L’un d’eux, Wassim CHIADLI, affirme : « les cours que les étudiants peuvent trouver sur SILLAGES sont à grande valeur ajoutée et constituent pour eux un vrai appui pendant leurs années d’études et surtout pendant leur période de révisions. Cela s’adresse en particulier aux étudiants des pays d’Afrique du Nord et du Moyen Orient bercés dans la francophonie. Le Maroc en est un bon exemple. En effet, il existe beaucoup de similitudes entre les systèmes d’études supérieures français et marocain. Un nombre important d’étudiants marocains s’orientent vers les classes préparatoires pour accéder aux grandes écoles marocaines mais également françaises telles que l’Ecole Polytechnique, Centrale, Mines Ponts et Chaussées, HEC, etc.

Et le plus difficile pour ces jeunes étudiants est de trouver des informations, des cours et des exercices fiables et gratuits afin de réussir leurs parcours. De même, la France reste la destination favorite des Marocains ayant pour but de finaliser leurs études à l’étranger. Cela reste néanmoins une mission délicate pour les candidats libres qui ne possèdent pas systématiquement d’appuis, ni de références.

Le projet SILLAGES peut ainsi aider les étudiants en classes préparatoires à renforcer leurs connaissances et, d’autre part, donner une nouvelle opportunité aux personnes ayant le plus de mal à accéder à l’information ».

Framablog : on voit bien l’intérêt de tels sites qui est de mettre à disposition du plus grand nombre des documents pertinents et adaptés au public visé, enseignants et étudiants de niveau L1 et L2. Mais entretenez-vous des relations en présentiel avec les publics étrangers ?

Nathalie Van de Wiele : nos sites visent à favoriser les échanges pédagogiques à travers le monde. Nous les complétons avec des missions. Olivier Granier a ainsi participé à plusieurs missions à l’étranger, au Liban (Université Saint Joseph, Beyrouth, en avril 2011 et avril 2012), au Cambodge (Institut de technologie du Cambodge, Phnom Penh, en novembre 2011) et au Cameroun (Institut supérieur des technologies et du design industriel, Douala, en février 2012).

Le but de ces missions était à chaque fois sensiblement le même : faire connaître, utiliser et enrichir les ressources SILLAGES, former des étudiants de ces universités étrangères aux spécificités des concours des grandes écoles scientifiques françaises. Olivier Granier a ainsi organisé des séances de préparation aux écrits des concours, effectué des compléments de cours et organisé des séances spécifiques de préparation aux oraux des concours (sous forme d’interrogations orales de type « colles »).

Michèle Tillard est actuellement en train de mettre sur pied un stage en présentiel, destiné aux étudiants hellénistes de l’IPELSHT (Institut Préparatoire aux études littéraires et de Sciences Humaines de Tunis), qui complètera la formation à distance qu’elle a bâtie sur la plate-forme SILLAGES pour ces étudiants, débattant sur un forum dédié de « L’enseignement à distance pour sauver l’enseignement du grec ancien ? ».

Framablog : SILLAGES et le libre ?

Jean-Pierre Archambault : il y a donc tous ces documents en Creative Commons. En outre, bon nombre de ressources élaborées pour l’enseignement à distance sont conçues grâce à des logiciels libres, tels que Geany, Amaya ou encore OpenOffice, et destinés à être lus par l’ensemble des navigateurs, en particulier Mozilla Firefox ou Safari. C’est le cas, notamment, des ressources créées en grec ancien. Les sites eux-mêmes font appel aux logiciels et licences libres (MediaWiki doté d’un éditeur LaTeX pour le wiki SILLAGES et CeCILL pour l’utilisation de la plate-forme SILLAGES).

Et puis, l’esprit avec lequel les enseignants associés à SILLAGES travaillent, notamment lors des missions à l’étranger, relève de l’approche du libre. L’objectif de SILLAGES est bien de favoriser le partage de documents libres mis à disposition sur internet et de promouvoir l’utilisation et la réappropriation qui en est faite auprès de publics demandeurs et souvent éloignés de grands centres documentaires.

Je citerai cette phrase (tirée du site framasoft.net) : « Issu du monde éducatif, Framasoft est un réseau de sites web collaboratifs à géométrie variable dont le dénominateur commun est le logiciel libre et son état d’esprit. Il vise à diffuser le logiciel libre et à le faire connaître auprès du plus large public. ». A mon sens, elle s’applique à la communauté SILLAGES.

Framablog : quels problèmes rencontrez-vous ? Quelles sont vos perspectives ?

Nathalie Van de Wiele : si, dans le contexte de l’ouverture sociale et internationale de l’accès aux grandes écoles l’initiative SILLAGES prend toute sa place, participant à l’offre numérique de l’enseignement supérieur français, menant des expériences concrètes à l’international et offrant une souplesse de moyens sachant répondre à la demande des étudiants, des progrès sont encore à réaliser.

Un bilan des ressources placées sur la plate-forme SILLAGES montre que les ressources scientifiques sont majoritaires mais incomplètes (il n’y a ni chimie, ni biologie, ni sciences de l’ingénieur), que les langues sont absentes des disciplines littéraires et que les sciences économiques et commerciales sont sous-représentées. Sur le wiki SILLAGES, l’édition collaborative a du mal à démarrer.

Le manque de moyens financiers (les membres de SILLAGES sont tous bénévoles et dégagent pour SILLAGES du temps sur leurs activités professionnelles) freine pour le moment des développements plus ambitieux. En terme d’usage, si des efforts sont fait en terme de travail collaboratif pour adapter les ressources à la demande, d’accompagnement des étudiants dans l’utilisation de celles-ci, de coopération internationale entre établissements, l’initiative SILLAGES souffre de ne pas être encore assez connue.

L’association SILLAGES est encore jeune et ne demande qu’à se développer afin d’augmenter le nombre de ressources placées sur la plate-forme ou le nombre d’articles édités sur le wiki et d’attirer vers elle de nombreux enseignants prêts à rejoindre la communauté SILLAGES et à relever le défi qui l’anime.

Framablog : quel rapport établissez-vous entre coopération sur un pied d’égalité et approche du libre ?

Jean-Pierre Archambault : si SILLAGES s’inscrit pleinement dans l’approche du libre aux plans des logiciels utilisés et des ressources pédagogiques produites, des modalités de leur réalisation et de mise à disposition de tous, des réponses en termes de droit d’auteur, ce n’est pas le fruit du hasard.

En effet, si chacun a vocation à produire ses propres ressources, la coopération internationale et des formes de solidarité numérique c’est aussi l’adaptation de celles réalisées par l’autre. Avec le libre, chaque communauté peut prendre en main la localisation/culturisation qui la concerne, connaissant ses propres besoins et ses propres codes culturels mieux que quiconque. Il y a donc, outre une plus grande liberté et un moindre impact des retours économiques, une plus grande efficacité dans le processus, en jouant sur la flexibilité naturelle des créations immatérielles pour les adapter à ses besoins et à son génie propre.

C’est aussi plus généralement ce que permettent les « contenus libres », c’est-à-dire les ressources intellectuelles – artistiques, éducatives, techniques ou scientifiques – laissées par leurs créateurs en usage libre pour tous. Logiciels et contenus libres promeuvent, dans un cadre naturel de coopération entre égaux, l’indépendance et la diversité culturelle, l’intégration sans l’aliénation.

Framablog : d’une manière générale, pensez-vous que pédagogie rime avec libre ?

Jean-Pierre Archambault : oui, et le mouvement est irréversible.

D’évidence, il existe des auteurs par milliers, des acteurs multiples (enseignants, associations, institutions, collectivités territoriales) qui mettent en place des coopérations souples et diverses. Certes, de tout temps les enseignants ont réalisé des documents en préparant leurs cours. Mais, avant la banalisation des outils numériques de production des contenus (traitement de texte, présentation, publication) et le développement d’internet qui donne à l’auteur un vaste public potentiel qui peut aisément reproduire les documents qu’il a récupérés, qui en bénéficiait au-delà d’un cercle nécessairement restreint ?

La numérisation des œuvres et de la connaissance en général, et leur diffusion sur internet posent avec une acuité sans pareille le problème de l’usage que l’on peut en faire. Des millions d’utilisateurs ont accès à des millions d’œuvres, grandes ou petites. Difficile d’imaginer que leur utilisation puisse passer par une demande d’autorisation. De ce point de vue, le copyright est un non-sens sur internet. La loi doit pouvoir être applicable. D’où la pertinence de la démarche de Creative Commons dans laquelle l’auteur, en mettant à disposition sa création sur la toile, indique ce que les internautes peuvent en faire. Elle permet l’indispensable circulation fluide des documents et, si nécessaire, leur modification.

Framablog : un mot pour conclure…

Jean-Pierre Archambault : les enjeux sont forts : appropriation de la connaissance par tous, constitution d’un patrimoine pédagogique mondial accessible à tous. SILLAGES a l’ambition d’y apporter sa modeste contribution.

Notes

[1] Crédit photo : Tulane Public Relations (Creative Commons By)

[2] La licence Creative Commons By-Nc-Sa n’étant pas considérée comme libre au sens des logiciels libres.




Manuel « Introduction à la science informatique » – Commentaires sur les commentaires

La mise en ligne sur le Framablog de l’article Sortie du manuel « Introduction à la science informatique » a naturellement suscité des commentaires, bienvenus, variés et intéressants.

Quelques éléments pour poursuivre le débat entamé.

1) Quelle culture générale scolaire au 21è siècle ?

L’enseignement de spécialité optionnel « Informatique et Sciences du numérique » créé en Terminale S à la rentrée 2012 est un enseignement de culture générale. Comme il y en a d’autres au lycée : mathématiques, histoire-géographie, sciences physiques, philosophie… Il n’a pas vocation à former des spécialistes, cela étant il peut contribuer à susciter des vocations. Il correspond aux missions du système éducatif, à savoir former l’homme, le travailleur et le citoyen.

Les disciplines enseignées évoluent au fil du temps. On ne fait plus de géométrie descriptive en mathématiques mais des probabilités et des statistiques. Le latin et le grec n’ont plus la même place qu’au début du siècle dernier. Les sciences physiques sont devenues discipline scolaire car elles sous-tendaient les réalisations de la société industrielle. Or le monde devient numérique… L’informatique doit avoir sa place dans la culture générale scolaire car elle fait partie de la culture générale de notre époque. C’est un choix que la société fait, doit faire. Car il est clair que l’on ne peut pas tout étudier à l’Ecole. Il faut choisir le « midi qui a le plus de portes ».

Dans les commentaires, un argument nous a quelque peu surpris. Il ne faudrait pas d’informatique à l’École car « cela dégoûterait les élèves ». Le propos vaut-il pour la lecture ? N’apprenons pas à lire aux enfants. Comme cela ils ne seront pas dégoûtés et tous sauront lire. Pas sûr…

Il a été fait état, c’est inévitable, de la comparaison avec la conduite des automobiles. Rappelons que conduire une voiture, en fabriquer et étudier la thermodynamique sont trois activités de natures différentes. Comme l’utilisation des ordinateurs, leur fabrication et la science informatique le sont.

Tout le monde a en tête les débats vifs qui ont accompagné la transposition de la directive européenne DADVSI ou le vote de la loi Hadopi, et du sentiment que l’on a pu éprouver que beaucoup ne savaient pas de quoi ils parlaient. Quand les citoyens s’intéressent au nucléaire ils peuvent peu ou prou se référer à ce qu’ils ont appris à l’école en cours de sciences physiques (atome, courant électrique…). Quand ils s’intéressent aux OGM ils peuvent se référer à leurs cours de SVT. Le problème concernant l’informatique et le numérique est qu’il n’y a pas encore de cours d’informatique, scientifique et technique.

Enseigner une discipline informatique au lycée signifie fondamentalement être en phase avec la société telle qu’elle est devenue.

2) Pourquoi de la programmation ?

Faisons un détour par les mathématiques. Tous les élèves en font, de la Maternelle à la Terminale. Pourtant, bien peu seront chercheurs en mathématiques. Et tous ne seront pas ingénieurs ou professeurs de mathématiques. Ils apprennent à résoudre des équations, chose qu’ils ne feront plus le reste de leur vie. Ils étudient et construisent des fonctions. Pourquoi ? Parce qu’il est important de savoir qu’une grandeur peut dépendre d’une autre grandeur. Que, par exemple, la courbe du chômage indique une progression, éventuellement une accélération de cette progression. Pour s’approprier ces notions, il y a tout un long cheminement avec des appropriations de notions dont on ne se servira plus dans la vie. Mais il reste la culture, à savoir ce qui reste quand on a tout oublié !

Il en va de même pour la programmation. Elle est avec l’algorithmique, la théorie de l’information, l’architecture et les matériels l’un des quatre grands domaines de l’informatique, constituant une clé de voûte où les quatre arcs qui structurent l’informatique se rejoignent, A ce titre elle est déjà incontournable. Elle permet de comprendre ce qu’est l’informatique, de percevoir sa « nature profonde », de s’en imprégner. Pour s’approprier des notions (fichier, protocole de communication, « verrou mortel »…), rien de tel que d’écrire des « petits » programmes.

Cela vaut également pour l’apprentissage des autres disciplines. Encore faut-il que les élèves sachent programmer ! La programmation est un élément de cursus informatique apprécié des élèves, car elle les place dans une situation active et créative, dans laquelle ils peuvent eux-mêmes fabriquer un objet. On constate en effet avec l’ordinateur une transposition des comportements classiques que l’on observe dans le domaine de la fabrication des objets matériels. À la manière d’un artisan qui prolonge ses efforts tant que son ouvrage n’est pas effectivement terminé et qu’il fonctionne, un lycéen, qui par ailleurs se contentera d’avoir résolu neuf questions sur dix de son problème de mathématiques (ce qui n’est déjà pas si mal !), s’acharnera jusqu’à ce que « tourne » le programme de résolution de l’équation du second degré que son professeur lui a demandé d’écrire, pour qu’il cerne mieux les notions d’inconnue, de coefficient et de paramètre. Ces potentialités pédagogiques de la programmation, qui favorisent l’activité intellectuelle, sont parfois paradoxalement et curieusement oubliées par des pédagogues avertis (qui, par ailleurs apprécient les vertus de l’ordinateur et d’internet, outil pédagogique).

De plus, la programmation est une excellente école de la rigueur, de la logique. Vraiment, pourquoi s’en priver ?

3) Formation de culture générale et formations professionnalisantes

Si les disciplines scolaires sont générales et concernent tous les élèves, il n’empêche qu’elles contribuent à donner des fondamentaux que certains retrouveront dans leurs formations ultérieures et leur vie professionnelle. Toutes les disciplines sont des outils au service des autres, et aussi des fins en soi. Cela vaut par exemple pour les mathématiques qui sont au service des sciences physiques ou des sciences économiques. Et pour l’informatique bien sûr. Plus les disciplines sont au service des autres, plus elles deviennent une fin en elles-mêmes. Plus elles sont des composantes majeures de la culture des hommes. Informatique et littérature même combat. Écrire un programme ou écrire un texte sont deux activités d’égale dignité, tout aussi passionnantes l’une que l’autre : une fin en soi !

Une formation structurée sur une longue durée doit être organisée comme une fusée à deux étages : les premières années doivent être consacrées à l’apprentissage de savoirs fondamentaux, puis doivent venir les savoirs spécialisés, qui ont vocation à être directement utilisés dans (les premières années d’) une activité professionnelle. Par exemple la formation d’un médecin consiste à apprendre d’abord (dès l’école primaire, le collège et le lycée) des généralités sur l’anatomie et la physiologie humaine, avant d’apprendre tel ou tel geste chirurgical ou la posologie de tel ou tel médicament. Cette seconde phase de la formation est très variable en fonction du métier que l’on souhaite exercer : les mêmes savoirs spécialisés ne sont pas nécessaires à un ophtalmologiste et un anesthésiste, alors que l’un et l’autre doivent savoir que le cœur est à gauche et le foie à droite ou qu’une cellule humaine contient vingt-trois paires de chromosomes.

Avec l’arrivée de l’informatique au lycée se pose la question de l’identification des savoirs fondamentaux que l’on souhaite partager, non avec ses collègues, mais avec tous. Pour faire partie de la culture générale ces savoirs doivent :

  • avoir une certaine stabilité,
  • donner une image diversifiée, mais cohérente de la discipline,
  • éclairer la vie quotidienne, mais aussi ouvrir de nouveaux horizons,
  • permettre de comprendre comment utiliser des objets mais aussi comment ils sont conçus,
  • être agréables et valorisants à apprendre.

Les besoins croissants en matière d’informatique et de numérique concernent des compétences diversifiées qui évoluent rapidement (outils, langages…), des métiers nouveaux avec peu de formations existantes (web 2,0, e-économie…). Cela signifie qu’il faut distinguer la formation pour tous aux fondamentaux de culture générale informatique, scientifique et technique, dans l’enseignement scolaire et dans l’enseignement supérieur, et les formations professionnalisantes qui, de par les évolutions incessantes des besoins, doivent justement pouvoir s’appuyer sur une solide formation initiale.

Jean-Pierre Archambault
Gilles Dowek




Sortie du manuel Introduction à la science informatique

Introduction à la Science Informatique - CouvertureEn visite en Angleterre, voici ce que disait le patron de Google dans une récente traduction du Framablog : « Je suis sidéré d’apprendre qu’il n’existe même pas d’enseignement de base de l’informatique dans les écoles britanniques aujourd’hui. Votre programme de technologie se concentre sur la manière d’utiliser un logiciel, mais n’explique pas comment il a été conçu. »

Et Slate.fr d’en remettre une couche le 4 septembre dernier dans son pertinent article La programmation pour les enfants: et pourquoi pas le code en LV3 ? : « Lassés d’avoir bouffé des slides de PowerPoint et des tableurs Excel dans leurs jeunes années, les étudiants se sont détournés peu à peu de l’étude de l’informatique confondant, bien malgré eux, l’apprentissage d’applications qu’ils trouvent généralement inintéressantes et celui des sciences computationnelles dont ils ne comprennent même pas l’intitulé. »

Toujours dans le même article : « On fait beaucoup d’esbroufe sur la délocalisation d’activités telles que la création de logiciel, mais ce qui n’est pas clair dans cette histoire c’est où est la charrue et où sont les bœufs. Est-ce que les entreprises délocalisent par ce que cela leur coûte moins cher et dans ce cas nous perdons des emplois sur le territoire, ou bien le font-elles parce qu’elle ne peuvent tout simplement pas recruter ici si bien qu’elles à se mettent rechercher des gens compétents ailleurs ? ».

Owni, quant à lui, va encore plus loin, avec son appel à hacker l’école accompagné du témoignage d’un père qui souhaite que sa fille en soit.

Lentement mais sûrement on prend enfin conscience que l’enseignement de l’informatique est un enjeu fondamental du monde d’aujourd’hui. Il y a ceux qui maîtriseront, ou tout du moins comprendront, le code et il y a ceux qui utiliseront le code créé par d’autres.

C’est pourquoi l’arrivée en France pour la rentrée 2012 en Terminale S de l’enseignement de spécialité « Informatique et sciences du numérique » est une avancée importante que l’on doit saluer comme il se doit.

Tout comme nous saluons ci-dessous la sortie d’un manuel support de cette nouvelle discipline (mais qui pourra également être utile et précieux à tout public intéressé par le sujet). Sous licence Creative Commons il a été rédigé collectivement par certains de ceux qui se sont battus avec force, courage et diplomatie pour que cet enseignement voit le jour (à commencer par Jean-Pierre Archambault que les lecteurs de ce blog connaissent bien).

Peut-être penserez-vous que c’est dommage et pas assez ambitieux de se contenter d’une spécialité pour la seule classe tardive de Terminale S ? (Peut-être jugerez-vous également que la licence Creative Commons choisie par le manuel n’est pas « assez ouverte » ?) Certes oui, mais en l’occurrence nous partons de si loin que l’on ne peut que se réjouir de ce petit pas qui met le pied dans la porte.

Et le Libre dans tout ça ?

Point n’est besoin de consulter les communiqués dédiés de l’April et de l’Aful, mentionnés ci-dessous, pour comprendre qu’il devrait largement bénéficier lui aussi de l’apparition de ce nouvel enseignement, synonyme de progrès et d’évolution des mentalités à l’Education nationale.

Edit du 18 septembre : Il y a une suite à cet article puisque les auteurs, Gilles Dowek et Jean-Pierre Archambault, ont choisi de commenter les nombreux et intéressants commentaires dans un nouveau billet.

Un manuel Introduction à la science informatique

Un manuel Introduction à la science informatique est paru en juillet 2011, destiné aux professeurs qui souhaitent se former avant de dispenser l’enseignement de spécialité « Informatique et sciences du numérique », créé en Terminale S à la rentrée 2012[1]. Il s’adresse aussi potentiellement à d’autres publics souhaitant s’approprier les bases de la science informatique[2].

Edité par le CRDP de Paris[3], ce manuel a été écrit par 17 auteurs[4] et coordonné par Gilles Dowek, directeur de recherche à l’INRIA. La préface est de Gérard Berry, professeur au Collège de France et membre de l’Académie des Sciences. Ce livre est sous licence Creative Commons : paternité, pas d’utilisation commerciale, pas de modification.

Il est composé de 7 chapitres : Représentation numérique de l’information ; Langages et programmation ; Algorithmique ; Architecture ; Réseaux ; Structuration et contrôle de l’information ; Bases de données relationnelles et Web. Les chapitres comportent une partie de cours présentant les concepts, d’exercices corrigés et non corrigés, d’une rubrique consacrée aux questions d’enseignement, et de compléments permettant d’aller plus loin, en particulier d’aborder quelques questions de société en liens avec la révolution informatique.

Le programme des élèves de Terminale S

Ce contenu reprend, sous une forme plus approfondie, les éléments du programme de la spécialité « Informatique et Sciences du numérique » proposée à la rentrée 2012 aux élèves de Terminale S et qui est construit autour des quatre notions fondamentales d’information, d’algorithme, de langage et de machine), notionss qui structurent les grands domaines de la science informatique.

  • Représentation de l’information
    • Représentation binaire, opérations booléennes, numérisation, compression, structuration et organisation de l’information.
    • Ancrées dans les notions étudiées, des questions sociétales seront abordées : persistance de l’information, non-rivalité de l’information, introduction aux notions de propriété intellectuelle, licences logicielles.
  • Algorithmique
    • Des algorithmes simples (rechercher un élément dans un tableau trié par une méthode dichotomique) et plus avancés (recherche d’un chemin dans un graphe par un parcours en profondeur) seront présentés.
  • Langages de programmation
    • Types de données, fonctions, correction d’un programme, langages de description (présentation du langage HTML).
  • Architectures matérielles
    • Architectures des ordinateurs : éléments d’architectures, présentation des composants de base (unité centrale, mémoires, périphériques.), jeu d’instructions.
    • Réseaux : transmission série – point à point – (présentation des principes, introduction de la notion de protocole), adressage sur un réseau, routage.
    • La question de la supranationalité des réseaux sera abordée.
    • Initiation à la robotique

Quid du libre ?

La liberté des usagers de l’informatique, le contrôle des outils qu’ils utilisent supposent qu’ils comprennent et maîtrisent les concepts qui les sous-tendent. Un système d’exploitation, un traitement de texte ou un tableur sont des outils conceptuels compliqués et complexes de par les objets qu’ils traitent et la multitude de leurs fonctionnalités. Le libre, c’est-à-dire le code source que l’on connaît et non pas une approche en termes de « boîte noire » miraculeuse qui fait tout pour vous (curieuse d’ailleurs cette représentation mentale qu’ont certains de la prothèse du cerveau qu’est l’ordinateur, que l’on pourrait utiliser sans la connaître ni la comprendre), s’inscrit pleinement dans la vision qui considère que l’homme, le travailleur et le citoyen doivent avoir une culture générale informatique scientifique et technique.

C’est donc très naturellement que l’APRIL s’est félicité de la création de l’enseignement « Informatique et Sciences du numérique ». Le 5 janvier 2010, dans un communiqué de presse, rappelant qu‘« elle a toujours été favorable à ce que l’informatique soit une composante à part entière de la culture générale scolaire de tous les élèves sous la forme notamment d’un enseignement d’une discipline scientifique et technique », elle soulignait « cette première et importante avancée signe d’une certaine rupture ». Elle mentionnait que « l’expérience de ces dernières années a clairement montré que le B2i ne fonctionnait pas. Son échec prévisible tient notamment à des problèmes insolubles d’organisation, de coordination et de cohérence des contributions supposées et spontanées des disciplines enseignées. De plus ne sont pas explicitées les connaissances scientifiques et techniques correspondant aux compétences visées ».

D’une manière analogue, dans un communiqué le 23 mars 2010, l’AFUL faisait des propositions pour l’Ecole à l’ère numérique parmi lesquelles : « L’informatique devient une discipline à part entière, dont l’enseignement obligatoire dès le primaire est réalisé par des professeurs ayant le diplôme requis dans cette spécialité ou ayant bénéficié d’une formation qualifiante. La gestion des compétences, l’accompagnement des enseignants et la formation initiale et continue font l’objet du plus grand soin. ».

Gilles Dowek et Jean-Pierre Archambault

Remarque : En réponse aux commentaires ci-dessous, les auteurs ont choisi publié un nouvel article qui précise et complète un certains nombres de points évoqués ici.

Notes

[1] On peut le commander en suivant ce lien. On le trouvera également dans les librairies du CNDP, des CRDP et des CDDP.

[2] Parmi ces publics, il y a les étudiants ainsi que les professeurs de la spécialité SIN « Système d’Information et Numérique » du Bac STI2D qui se met en place en classe de Première à la rentrée 2011, les professeurs de technologie au collège, ceux qui expérimentent des enseignements d’informatique dans certains lycées en seconde et/ou en première, ou qui gèrent les parcs informatiques des établissements scolaires.

[3] Avec le soutien de l’EPI et de l’ASTI.

[4] Jean-Pierre Archambault (Chargé de mission au CNDP-CRDP Paris), Emmanuel Baccelli (Chargé de Recherche à l’Institut National de Recherche en Informatique et en Automatique), Sylvie Boldo (Chargée de Recherche à l’Institut National de Recherche en Informatique et en Automatique), Denis Bouhineau (Maître de Conférences à l’Université Joseph Fourier, Grenoble), Patrick Cégielski (Professeur à l’Université Paris-Est Créteil), Thomas Clausen (Maître de Conférences à l’École polytechnique), Gilles Dowek (Directeur de Recherche à l’Institut National de Recherche en Informatique et en Automatique), Irène Guessarian (Professeur émérite à l’Université Pierre et Marie Curie, chercheur au Laboratoire d’Informatique Algorithmique : Fondements et Applications), Stéphane Lopès (Maître de Conférences à l’Université de Versailles St-Quentin), Laurent Mounier (Maître de Conférences à l’Université Joseph Fourier, Grenoble), Benjamin Nguyen (Maître de Conférences à l’Université de Versailles St-Quentin), Franck Quessette (Maître de Conférences à l’Université de Versailles St-Quentin), Anne Rasse (Maître de Conférences à l’Université Joseph Fourier, Grenoble), Brigitte Rozoy (Professeur à l’Université de Paris-Sud), Claude Timsit (Professeur à l’Université de Versailles St-Quentin), Thierry Viéville (Directeur de Recherche à l’Institut National de Recherche en Informatique et en Automatique),




La neutralité du Net, par Jean-Pierre Archambault

Desbenoit - CC by - Wikimedia Commons« La neutralité du Net ou la neutralité du réseau est un principe qui garantit l’égalité de traitement de tous les flux de données sur Internet. Ce principe exclut ainsi toute discrimination à l’égard de la source, de la destination ou du contenu de l’information transmise sur le réseau. »

Telle cette introduction Wikipédia ou cette illustration ci-contre, cela semble simple a priori.

Mais si l’on veut mieux la comprendre et en appréhender ses enjeux, le format Twitter ne suffit plus (surtout en cette période trouble où l’illimité pourrait prendre fin en France)

C’est dans ce but que nous publions un nouvel article de Jean-Pierre Archambault qui n’a pas son pareil pour nous présenter progressivement et limpidement un problème complexe 🙂

Et d’achever ainsi son propos : « Diderot et d’Alembert ont peut-être rêvé à un outil miracle faisant accéder en un tour de main tous les humains à toute la connaissance… L’enjeu est de conserver leur rêve devenu réalité. »

La neutralité du Net

URL d’origine du document

Jean-Pierre Archambault – juin 2011 – Association EPI

Le numérique est partout. Les débats sociétaux qu’il suscite se multiplient. Ainsi celui sur la neutralité du Net qui s’est installé de plain-pied dans l’actualité. Deux raisons principales sont à l’origine de ce débat : l’accroissement du trafic et la montée de questions juridiques et marchandes. S’interpénètrent des questions scientifiques, techniques, juridiques, économiques, commerciales, politiques, ainsi que celles de la liberté d’expression et de la citoyenneté, géopolitiques.

Le trafic sur internet ne cesse de croître, une évidence que cette rançon du succès ! La vidéo, gourmande en bande passante, sature les réseaux. Le marché mobile des terminaux explose. Les infrastructures doivent évoluer et se développer, le haut débit en premier lieu. Qui doit payer ? Qui pourrait payer ? Des mesures de discrimination, blocage et filtrage (pour les flux illicites), antinomiques avec la philosophie du Net, sont mises à l’ordre du jour, issues de problématiques comme la lutte contre la cybercriminalité, les modèles économiques de l’immatériel, des industries culturelles. La neutralité du Net rencontre ici les débats qui ont accompagné la transposition de la DADVSI, la loi Hadopi… La question se pose également de savoir si le Net est vraiment neutre. Et si la vision d’un cyberespace « idéal » et insensible aux réalités géopolitiques de la planète est réaliste et pertinente.

Un réseau de réseaux

Internet est un réseau de réseaux (de beaucoup de réseaux, grande distance, intranets, locaux) en trois couches : une couche physique (le fil de cuivre des réseaux téléphoniques, la fibre optique…), une couche logique (les logiciels, les protocoles d’internet) et des contenus[1]. Les câbles et les réseaux qu’ils interconnectent appartiennent à l’État ou à des entreprises privées. Les ordinateurs au sein du réseau fournissent un service de base – le transport des données – avec des fonctions très simples nécessaires pour les applications les plus diverses. L’intelligence et la complexité, à savoir le traitement de l’information, sont situées dans des ordinateurs à la lisière du réseau.

La philosophie d’internet repose fondamentalement sur l’absence de discrimination dans l’acheminement des flux et dans le fait de pouvoir, pour tout un chacun, accéder librement au réseau sans avoir à en demander la permission à une autorité. Des travaux montrent qu’un réseau d’information public est d’efficacité maximale s’il aspire à traiter tous les contenus, sites et plates-formes, de manière égale[2].

Cette architecture favorise l’innovation. En effet, les inventeurs ont seulement besoin de connecter leurs ordinateurs, sans qu’il faille modifier ceux de l’intérieur. La structure d’internet n’est optimisée pour aucune application existante spécifique, en conséquence le réseau est ouvert à toute innovation non prévue à l’origine. Il est neutre, au sens où un propriétaire du réseau ne peut pas sélectionner des données au détriment d’une nouvelle structure innovante qui menace une application en situation dominante. Les créateurs n’ont pas besoin d’obtenir une permission de quiconque pour développer une nouvelle application. Les opérateurs réseaux qui font circuler les paquets d’informations ne doivent pas y toucher. Sauf cas de force majeure, comme une congestion de réseau ou une attaque, ils doivent les transporter sans discrimination que ce soit, selon la source, la destination ou le type de message auquel le paquet appartient (données, voix, audio, vidéo). Ce principe est étendu aux services et applications, ce qui interdit les pratiques commerciales de distribution exclusive, d’exclusion et de traitement prioritaire au sein des offres internet.

D’autres réseaux fonctionnent « comme internet » : le réseau électrique auquel tout un chacun peut se connecter pourvu que son équipement corresponde aux normes du système, le réseau autoroutier car, à partir du moment où la voiture a été homologuée et où le conducteur a son permis de conduire, le concessionnaire de l’autoroute n’a pas à savoir pourquoi ni quand l’usager emprunte celle-ci.

Internet repose sur des standards ouverts de formats de données (HTML pour écrire des pages web) et de protocoles de communication (TCP/IP, HTTP). Il fonctionne à base de logiciels libres : Apache, SendMail, Linux… Il est donc difficile de verrouiller le réseau par la pratique du secret. Les logiciels libres contribuent à construire une plate-forme neutre. Ils la protègent par des licences comme la GPL et la diffusion du code source, garantissant aux développeurs qu’elle le restera dans l’avenir.

Au-dessus du réseau internet « se répandent à grande vitesse des applications du web comme les réseaux sociaux, le commerce électronique, l’usage des smartphones ou des tablettes, les blogs, les chats, la téléphonie sur IP, la géolocalisation, les sites de notation des restaurants, hôtels, voyages, les sites de rencontres, les sites de partage de vidéos, les jeux en ligne, etc. On pourrait se dire qu’on est vraiment embarqués sur un “bateau ivre”… De plus, vu les dangers et les menaces de piratage dont les médias se font écho pratiquement chaque jour, on peut également se dire que le bateau, en plus d’être “ivre”, navigue dans un véritable “champ de mines” !!! »[3]. Nous y reviendrons.

Les acteurs du Net

Quels sont les acteurs du Net ? Les internautes bien sûr. La puissance publique. Sur le plan économique, « la dernière décennie a consacré l’organisation économique d’Internet en quatre groupes d’acteurs : producteurs d’éléments de réseaux et de terminaux (ex. Intel, Microsoft, Cisco, Alcatel-Lucent, Dassault Systems), opérateurs réseaux (ex. AT&T, Verizon, France Télécom), fournisseurs de services et intermédiaires (ex. Google, Amazon, eBay, Pages Jaunes) et producteurs de contenus (ex. The Walt Disney Company, Time Warner, Lagardère, Reed Elsevier). La catégorie la plus récente, les intermédiaires, est celle qui participe le moins à l’investissement dans les réseaux, échappe largement à l’impôt et réalise les bénéfices les plus importants. C’est aussi celle qui occupe une part croissante des ressources en bande passante »[4]. On compte de l’ordre de 27 000 acteurs de par le monde.

Internet est une plate-forme qui semble mettre les internautes en relation directe, ce qu’elle n’est pas. Il y a le coeur du réseau, à savoir les réseaux d’accès avec la boucle locale (dédiée à une habitation ou à une entreprise) en cuivre ou en fibre optique, les opérateurs étant les fournisseurs d’accès à internet. Les points d’interconnexion assurent l’ouverture sur les autres réseaux d’accès par l’intermédiaire des « backbones », épine dorsale du réseau mondial[5]. Concernant les tuyaux et les flux de données, il y a donc les fournisseurs d’accès au client final, les opérateurs de transit au niveau du backbone, les hébergeurs qui stockent les données (dans des serveurs, les « data center »), les fournisseurs de « cache ».

Qui paye ?

Au plan mondial, le marché du transit et du cache représente quelques milliards d’euros, celui de l’accès plusieurs centaines de milliards d’euros. Historiquement les fournisseurs de contenus payaient les opérateurs de transit mais pas les fournisseurs d’accès. Aujourd’hui, les fournisseurs d’accès font payer une partie de leurs contrats aux fournisseurs de contenus. La téléphonie subventionne l’accès à internet. Nous avons vu ci-avant que la catégorie des intermédiaires (Google…) était celle qui participait le moins à l’investissement dans les réseaux, échappant largement à l’impôt et réalisant les bénéfices les plus importants. Les consommateurs payent davantage que les fournisseurs de contenus. Les enjeux sont d’importance et la bataille fait rage.

Le trafic va continuer à augmenter. La qualité de l’internet dépend en grande partie du dimensionnement des interconnexions, de la taille des tuyaux entre les réseaux des fournisseurs d’accès et les autres opérateurs de l’internet. Il va falloir investir dans les infrastructures fixes et mobiles. Qui va payer ? L’écosystème d’internet est complexe. Ménager un bon équilibre économique ne va pas de soi car les conflits d’intérêt sont bien réels. Comment par exemple mettre en place des mécanismes amenant les opérateurs qui induisent un trafic à payer aux fournisseurs d’accès un montant dépendant de la partie asymétrique des flux qu’ils engendrent ?

Certains, se fondant sur le fait qu’internet est et doit rester un bien commun de l’humanité, avancent l’idée d’un caractère et d’un financement publics, reposant donc sur l’impôt (notamment la fiscalité numérique qui reste un objectif majeur à mettre en oeuvre), d’une infrastructure publique d’intérêt général. Au même titre que d’autres infrastructures, par exemple les adductions d’eau, le réseau ferré ou les réseaux électriques qui le sont, l’étaient ou devraient le redevenir. Car le risque existe de dégradation de la qualité si les opérateurs n’investissent pas dans les réseaux ou privilégient la commercialisation des services gérés, mettant ainsi à mal le principe de non-discrimination, un des piliers de la neutralité du Net. Par exemple, les opérateurs réseaux sont tentés de facturer aux offreurs de contenus des services de livraison prioritaire, et aux abonnés une qualité de service privilégiée ou des bouquets de contenus exclusifs. En tout état de cause, la puissance publique ne saurait se désintéresser d’une infrastructure sociétale stratégique.

Une question centrale : la gestion du trafic

Faut-il mettre de l’intelligence dans le réseau ? Internet ne donne pas de garanties de performances dans l’acheminement, contrairement aux réseaux de type « circuits virtuels ». Les applications n’ont pas les mêmes besoins en termes de performances. La vidéo requiert beaucoup de bande passante, ce qui n’est pas le cas de la messagerie. Les applications en temps réel, synchrones, comme la téléphonie, se distinguent des applications asynchrones, le transfert de fichiers par exemple. La qualité dépend de l’interconnexion, de l’éloignement aussi, ce qui met en évidence l’intérêt du « peer to peer » qui distribue les échanges de fichiers entre plusieurs utilisateurs. Des routeurs sont capables de faire de la gestion de trafic à très haut débit avec des priorités. Faut-il permettre la discrimination des flux, mettre des priorités (ce qui n’est pas le cas en France pour les offres « triple play ») ? Les marchands répondent oui, on s’en doute. D’autres font dépendre la réponse du caractère commercial ou non des applications. Il y aurait alors l’internet et le non internet des services gérés. Ce qui supposerait que le commercial ne pénalise pas l’internet, qu’il y ait une garantie de qualité. Et il y a ceux pour qui il ne saurait y avoir de priorisation sur internet, bien commun, les services gérés n’existant que pour des applications qui en ont vraiment besoin. On pense par exemple à des services d’urgence médicale. Dans tous les cas, assurer la protection du principe de neutralité suppose des obligations de transparence imposées aux opérateurs en matière de gestion de trafic.

Sous l’angle du blocage et du filtrage

Le débat sur la neutralité du Net s’est aussi développé sous l’angle du « blocage », qui consiste à empêcher une communication sans inspection de contenu, et du « filtrage », qui repose sur une inspection de contenu, les deux soulevant des questions liées à la liberté d’expression sur internet. Les pouvoirs publics recherchent en la circonstance des moyens pour faire respecter la loi sur internet et lutter contre la cybercriminalité. Effectivement, l’État doit combattre les comportements attentatoires aux principes et valeurs de la société. Internet n’est pas un espace de non-droit. Les industries culturelles font pression, au nom de leurs modèles économiques traditionnels, pour empêcher l’accès aux contenus « illicites ». Mais l’on sait que la frontière avec les contenus « licites » peut être franchie. Et l’on sait surtout que les modèles économiques de l’immatériel ne peuvent pas être ceux de la production des biens matériels, les coûts marginaux de production et de diffusion d’un exemplaire supplémentaire étant quasi nuls[6]. Un vaste et tumultueux débat qui est loin d’être clos !

Un opérateur d’accès qui aurait une obligation légale de blocage serait amené à intervenir sur les contenus alors que son métier consiste à les acheminer. Les techniques de blocage (d’adresses IP, de noms de domaine, d’URL) et de filtrage ont un coût. Sont-elles efficaces ? Elles se contournent (utilisation de sites « miroir », de proxy, recours à un réseau privé virtuel) et peuvent engendrer des effets pervers (sur-blocage – les faux positifs – et sous-blocage – les faux négatifs –, chiffrement qui présente des risques pour la sécurité bien supérieurs à la défense des intérêts protégés…). Il est interdit d’utiliser son téléphone portable au volant. Pour autant, on n’a pas (encore ?) mis en place des dispositifs de blocage de cet usage-là.

Le rapport d’information déjà cité rappelle (page 34) : « Bien que, de manière générale, la Constitution n’oblige pas le législateur à prévoir l’intervention du juge pour prononcer toute mesure de restriction de la liberté individuelle, le Conseil constitutionnel a jugé, dans sa décision sur la loi HADOPI, qu’en raison de l’importance de la liberté d’expression et de communication et du rôle que joue l’accès à internet à l’égard de cette liberté, le législateur ne peut pas laisser une autorité administrative prononcer la sanction de suspension de cet accès. Il a ensuite précisé dans sa décision sur la LOPPSI que les dispositions confiant à l’autorité administrative le pouvoir de prononcer des mesures obligatoires de blocage “assurent une conciliation qui n’est pas disproportionnée entre l’objectif de valeur constitutionnelle de sauvegarde de l’ordre public et la liberté de communication garantie par l’article 11 de la Déclaration des droits de l’homme et du citoyen de 1789”, la décision de l’autorité administrative étant notamment toujours contestable devant le juge. »

Mais internet est-il vraiment neutre ?

Prenant un peu à contre-pied le débat sur la neutralité du Net, certains posent la question (iconoclaste ?) de savoir s’il est vraiment neutre. Serait-ce un mythe ?[7] La neutralité débattue est relativisée.

Le grand public ne le sait pas toujours mais l’ICANN, une association de droit californien, contrôle les ressources critiques que sont les adresses IP, les extensions et noms de domaines (fonction importante, noeud stratégique qui conditionne la visibilité sur le réseau), de par une dévolution du Ministère Américain du Commerce et dans l’absence de transparence requise ! Ainsi la France gère-t-elle son domaine national (.fr) en vertu d’une délégation accordée par cette association. Il est pour le moins surprenant et paradoxal de voir un espace public mondial géré par une association californienne ! Une nouvelle gouvernance, dans laquelle notamment chaque État aurait voix au chapitre dans des rapports d’égalité et en toute indépendance, s’impose car elle est une exigence légitime.

La couche basse d’internet, son épine dorsale en particulier, ce sont des câbles qu’il faut fabriquer et poser, sous la terre, les mers et les océans, ce sont des satellites. Et il faut gérer ces infrastructures. Ce monde est opaque et non régulé. Il est tenu par un club très fermé de gros transporteurs, pour l’essentiel des firmes états-uniennes. Elles contrôlent la quasi-totalité du trafic au plan mondial, ce qui leur procure en passant des profits substantiels.

On a vu que la mise en relation des internautes était loin d’être directe. Il y a des intermédiaires, qui plus est, de plus en plus puissants et concentrés : Google, Amazon, eBay, Apple, Yahoo, MSN, Facebook et autres compagnies. Ils commercialisent tout ce qui peut l’être dans le nouveau monde numérique : données personnelles, données de connexions, statistiques, musique, livres… Et si l’on ne connaît pas les algorithmes que Google utilise, en revanche on sait qu’il leur arrive d’accorder des « faveurs » dans leurs classements au bénéfice de sites avec lesquels l’entreprise entretient des relations commerciales. L’attention des internautes est captée à leur insu. Ils sont devenus la cible de producteurs de contenus en recherche de consommateurs. L’informatique est à la fois du calcul, du stockage et de la communication. L’approche de la neutralité du Net doit être globale. Elle doit aussi s’intéresser aux programmes et aux applications dont on doit savoir ce qu’ils font exactement. Et aux informations (quelles informations ?) qu’ils stockent on se sait trop où pour des utilisations dont il arrive qu’on les ignore.

Des questions de fond, planètaires

Avec internet, nous sommes de plain-pied dans des questions qui ont à voir avec l’état du monde et son devenir[8]. L’économie de la planète s’est réorganisée autour d’internet. Est en question le contrôle du commerce mondial, enjeu majeur comme ont pu l’être dans les siècles passés le contrôle du détroit des Dardanelles ou du canal de Suez. La mondialisation des activités humaines, long processus qui ne date pas d’hier, signifierait-elle dissolution des civilisations, des cultures, des langues (il existe d’autres caractères que latins sans accent : indiens, cyrilliques, arabes, mandarin… et un DNS peut s’écrire avec des idéogrammes), des systèmes économiques, des frontières, des modèles juridiques, des distances… des différences entre les hommes ? Fort improbable (on peut légitimement penser que c’est mieux ainsi) si l’on se réfère à la réalité observée. Quid alors de cette perception d’internet système global, homogène, offrant une plate-forme universelle de communications multimédia ? Exception paradoxale ou mythe, un de plus ? « L’internet est un réseau de réseaux autonomes depuis son ouverture commerciale au début des années 80. Il est fragmenté par construction, et il le restera »[9]. Et cette fragmentation devrait se renforcer. Avec « des webs “régionaux” ou même “continentaux”, à l’instar de la Chine et de son “AsiaNet” ; des webs “linguistiques”, où l’on pourra utiliser toute la puissance de sa langue maternelle pour exprimer une recherche, une adresse email ; des webs “culturels” qui embarqueront ou non des webs sectaires et/ou ethniques ; des webs “fermés”, sécurisés, anonymisés, plus ou moins cachés selon les objectifs suivis par leurs promoteurs et/ou utilisateurs ; des webs commerciaux, sur base “navigation” et/ou activité sociétale, essayant avec des bonheurs divers d’attirer des internautes dans leurs filets pour en revendre l’identité et leurs besoins et/ou habitude et/ou opinion… »[10]. La Chine s’est émancipée du contrôle américain de l’internet et ce sera bientôt le cas de l’Inde. Cela a nécessité le travail de milliers d’ingénieurs pendant des années.

Pourtant, « un épouvantail agité fréquemment par les gardiens du temple est la balkanisation ou fragmentation du réseau, avec son cortège de calamités, discontinuité des communications, confusion des noms et adresses, instabilité, insécurité, perte de fiabilité… Faudrait-il s’efforcer de maintenir au maximum un système de contrôle historique dont les éléments critiques sont verrouillés par le gouvernement des États Unis ?… oubliant au passage que la Chine a construit son propre internet, qu’il existe des milliers d’intranets… S’il fut un temps où l’ICANN, mandataire du gouvernement US, faisait la loi, on observe maintenant un réveil des gouvernements dits du sud… Le tropisme de fragmentation se renforce à mesure que les enjeux techniques deviennent minoritaires au regard d’autres domaines comme la propriété intellectuelle, le filtrage des informations, les investissements en infrastructure, la législation, la criminalité, ou les facteurs culturels et religieux »[11]. S’affrontent des modèles de cybersociétés, ayant chacune leurs valeurs, avec leur cortège de cyberconflits, cyberattaques[12], opérations de manipulation et désinformation, leurs enjeux en matière de souveraineté, de régulation et de sécurité des systèmes d’information. Dernière illustration en date, la publication par les États-Unis de leur « International Strategy for Cyberspace » dans laquelle ils indiquent leur volonté de réguler l’internet, de promouvoir un Internet « ouvert, interopérable, sécurisé et fiable »[13]. Un objectif louable mais, pour autant, les moyens annoncés ne manquent pas d’en inquiéter légitimement plus d’un de par le monde. En effet, « pour réaliser ce futur et aider à promulguer des normes positives, les États-Unis associeront diplomatie, défense et développement pour favoriser la prospérité, la sécurité et l’ouverture afin que chacun puisse bénéficier de la technologie du réseau ». Et les points sont mis sur les « i » : « Les États-Unis vont, avec d’autres nations, encourager un comportement responsable et s’opposer à ceux qui chercheront à perturber les réseaux et systèmes, en dissuadant et démasquant les acteurs malicieux, en défendant ces installations nationales vitales de façon aussi nécessaire et appropriée qu’il faudra. Nous nous réservons le droit d’utiliser tous les moyens – diplomatiques, informatifs, militaires et économiques – si appropriés et compatibles avec la loi internationale, afin de défendre notre nation, nos alliés, nos partenaires et nos intérêts. Nous épuiserons toutes les options avant d’en venir à la force militaire à chaque fois que nous le pourrons. » Le cyberespace est décidément bien dans l’espace « réel » !

Des mesures à prendre

L’enjeu de défense d’un bien commun et d’un bien public à l’échelle de la planète se situe donc dans un contexte global pluraliste. Cela étant, réaffirmer ces caractères de bien commun et bien public ainsi que le bien-fondé de l’intervention de la puissance publique reste fondamental. Cela implique quelques mesures qui figurent dans le rapport parlementaire déjà cité : inscrire dans la loi le principe de neutralité ; prévoir a minima l’intervention systématique du juge pour éviter les dérives en matière de blocage et s’interroger sur son efficacité ; réserver l’appellation internet aux services respectant le principe de neutralité et ainsi les distinguer des services gérés à caractère commercial ; obliger à une qualité « suffisante » pour tous les internautes. En définitive, faire en sorte qu’internet reste une plate-forme ouverte. Diderot et d’Alembert ont peut-être rêvé à un outil miracle faisant accéder en un tour de main tous les humains à toute la connaissance… L’enjeu est de conserver leur rêve devenu réalité.

Jean-Pierre Archambault
Président de l’EPI

PS : le débat sur la neutralité du Net est un débat de société qui concerne tous les citoyens. Il mêle d’une manière inextricable des questions politiques, économiques, juridiques et des concepts scientifiques et techniques : couches et protocoles de l’internet, adresses IP, réseaux d’accès et de transit, réseaux privés virtuels, routage, gestion du trafic, interconnexion des réseaux, chiffrement, standards ouverts… D’une manière évidente, un exercice plein de la citoyenneté suppose des connaissances de la science informatique, des représentations mentales efficientes. Fort opportunément, le programme de l’enseignement de spécialité optionnel « Informatique et sciences du numérique » créé en Terminale S à la rentrée 2012 comporte une partie consacrée aux réseaux. Une première avancée bienvenue pour les élèves de la filière scientifique ! Et tous sont concernés.

Notes

[1] Rapport parlementaire d’information déposé par la Commission des Affaires Économiques sur la neutralité des réseaux : Voir « Internet en 32 points », pages 16 à 20. « Innover ou protéger ? Un cyber-dilemme », Jean-Pierre Archambault, Médialog n° 58 de juin 2006, p. 42-45.

[2] Voir rapport parlementaire ci-dessus note 2, page 13.

[3] « La Netocratie », Mauro Israël, Forum Atena Où va la cybersociété ? Champ de mines ou bateau ivre ?, juin 2011. http://www.forumatena.org…

[4] « La neutralité du Net, un mythe paradoxal », Dominique Lacroix, Forum Atena Mythes et légendes des TIC, page 16. http://www.forumatena.org

[5] Voir rapport parlementaire ci-dessus note 2, « Interconnexion, transit et peering », pages 52 à 56.

[6] « Téléchargement sur Internet : quelle légitimité ? », Jean-Pierre Archambault, Médialog n° 57 de mars 2006, p. 42-45.

[7] Voir note 5 « La neutralité du Net, un mythe paradoxal », Dominique Lacroix, Forum Atena Mythes et légendes des TIC, page 16.

[8] Forum Atena Où va la cybersociété ? Champ de mines ou bateau ivre ? juin 2011. http://www.forumatena.org…

[9] « Où va l’internet ? Mondialisation et balkanisation », Louis Pouzin, Forum Atena Où va la cybersociété ? Champ de mines ou bateau ivre ? juin 2011. http://www.forumatena.org…

[10] Michel Charron, Forum Atena Où va la cybersociété ? Champ de mines ou bateau ivre ? juin 2011. http://www.forumatena.org…

[11] Voir note 10 « Où va l’internet ? Mondialisation et balkanisation », Louis Pouzin, Forum Atena Où va la cybersociété ? Champ de mines ou bateau ivre ? juin 2011. http://www.forumatena.org…

[12] « The Malicious Flash Crash Attack ou pourquoi il faudra peut-être ralentir les transactions électroniques », Robert Erra, Forum Atena Où va la cybersociété ? Champ de mines ou bateau ivre ? juin 2011 http://www.forumatena.org…

[13] « Les États-Unis veulent réguler Internet », Orianne Vatin, L’informaticien, le 18 mai 2011.




Les femmes, le logiciel libre, vous et moi aux RMLL 2010

CarbonNYC - CC byLorsque Jean-Pierre Archambault m’a invité le 7 juillet prochain à participer à une table ronde « Le genre et le logiciel libre » aux Rencontres Mondiales du Logiciel Libre de Bordeaux, je me suis senti gentiment piégé.

Pourquoi moi ? On ne peut malheureusement pas dire que la proportion de femmes dans la communauté Framasoft soit véritablement supérieure à la moyenne des autres projets du Libre, c’est-à-dire très faible.

Certes, mais si je refuse, ne va-t-on pas me suspecter d’indifférence au sujet, voire même de misogynie ?

J’ai donc accepté 😉

Mais afin de ne pas trop dire de bêtises et préparer quelques petites antisèches bien senties, j’en appelle à votre participation dans les commentaires ci-dessous. En espérant conserver le climat serein, la qualité d’argumentation et les échanges courtois qui s’y déroulent actuellement, malgré le caractère souvent polémiques de certains récents billets tels ceux sur l’iPad, Chrome ou Ubuntu. En espérant également que quelques femmes nous apporteront leurs témoignages.

J’avais ainsi introduit un vieil article du Framablog qui proposait (quelque peu maladroitement) Dix façons d’attirer facilement la gent féminine vers votre projet libre :

Prenez 100 développeurs de logiciels, vous n’y trouverez que 28 femmes. Prenez maintenant 100 développeurs de logiciels libres, vous n’y trouverez alors plus que 2 femmes !

Ce sera certainement la base de notre discussion, avec, dans l’ordre de progression et d’importance, trois grandes familles de questions :

  • Oui, mais est-ce réellement un problème ?
  • Pourquoi une telle sous-représentation ?
  • Que peut-on faire pour y remédier ?

Les femmes sont minoritaires dans le secteur informatique, ce qui est déjà significatif en soi. Mais à l’intérieur de ce secteur, elle sont quasiment absentes du logiciel libre ! Pourquoi un tel écart, alors que le logiciel libre n’a de cesse de vanter ses vertus communautaires et que les fameuses 4 libertés qui le caractérisent sont par essence non discriminantes ?

Le constat est là. Il est paradoxal et difficile à admettre lorsque l’on prône l’ouverture à longueur de journée[1].

Remarque : Outre cette table ronde, les RMLL proposeront également le 8 juillet une conférence de Perline sur le même sujet où l’on ne risque pas de s’ennuyer à en juger par la pugnace présentation.

« Le genre et le logiciel libre » aux RMLL 2010 – Entretien avec Jean-Pierre Archambault


6% seulement de femmes dans le logiciel libre !

JPA : Oui. Le chiffre en surprend plus d’un. Richard Stallman aime à dire, avec raison : « Liberté-Egalité-Fraternité »… Si le chiffre surprend, il n’en est pas moins là. D’où un souci de comprendre le pourquoi de cette situation. Pour éventuellement conclure que cela s’explique très bien, ce qui ne signifie nullement s’en accomoder. La question est donc posée et le thème du genre émerge dans différentes manifestations du logiciel libre. Pour réfléchir et, si possible, agir.


Ce sera le cas aux RMLL 2010

JPA : Différentes initiatives sont prévues. Dans le cadre des journées du pôle de compétences logiciels libres du Scérén, le 7 juillet une table ronde sera proposée et le 8 juillet auront lieu des entretiens collectifs avec des chercheurs du laboratoire EDA de Paris 5 Sorbonne ainsi que des interviews filmés en coopération avec l’équipe audiovisuelle des RMLL (3). Les entretiens s’inscrivent dans le cadre d’un projet du laboratoire. Les volontaires prêts à participer à ces entretiens d’environ 40 minutes (6 participants par groupe) sont les bienvenus. Il s’agira de discuter librement de leurs parcours et de leurs expériences relatifs aux logiciels libres[2]. Le 8 juillet également, une conférence sera organisée par Perline.


Une dimension éducative ?

JPA : On connaît la place de l’éducation reçue dans les déterminations de chacun, les stéréotypes véhiculés. Cela vaut pour des problématiques générales comme « le genre et l’informatique », « le genre et la science » et, en définitive, la condition féminine dont « le genre et le logiciel libre » constitue une de leurs déclinaisons.


La situation dans l’informatique en général

JPA : On compte environ 25% de femmes dans le secteur des TIC. Dans les professions de l’informatique, on constate une régression. En effet, au début, les femmes y étaient nombreuses : les stéréotypes ne jouaient pas, il y avait un espace à occuper, à conquérir, notamment pour ceux et celles qui pouvaient se sentir « mal à l’aise » dans d’autres domaines comme les mathématiques par exemple. L’informatique ne porte pas en elle-même des choses hostiles aux femmes. Mais on retrouve l’influence de ce qui est « technique ». Ainsi y a-t-il moins de femmes dans les domaines du matériel et de l’architecture, le rapport au tableur a une connotation masculine dans les formations techniques (industrielles) mais pas dans le domaine teriaire où il y a beaucoup de femmes. On ne constate pas de différence pour la programmation.


Et dans le libre ?

JPA : Il y a apparemment plus de femmes dans le libre au sein des entreprises que dans les communautés de développeurs. On connaît le prestige accordé à l’écriture du code dans le libre. Mais le geek est marqué au masculin et le libre garde une aura de transgression, un côté « Robin des bois ». Les femmes s’investissent davantage dans les travaux « annexes », moins valorisés, dans une démarche de bien commun avec un but collectif. Les hommes, plus engagés dans les stratégies de pouvoir, privilégient ce qui se voit, les activités « nobles ». Et codent sur leur temps libre (quand il ne s’agit pas d’une activité professionnelle). Et l’on sait que le temps libre n’est pas (encore) la chose la mieux partagée dans le monde des genres. On retombe sur la condition féminine.


L’informatique est une science

JPA : On retrouve la question du positionnement des filles par rapport aux carrières scientifiques avec, circonstance aggravante jusqu’ici, l’absence d’une discipline informatique au lycée. De ce point de vue également, la création d’un enseignement de spécialité optionnel « Informatique et sciences du numérique » en Terminale S à la rentrée 2012 est une bonne chose. Les lycéennes réussissent aussi bien (mieux même) que les lycéens dans les matières scientifiques. Et pourtant, elles ne choisissent pas ensuite les filières et carrières scientifiques comme elles pourraient y prétendre. Avec des différenciations au sein des disciplines (par exemple les statistiques et les probabilités en mathématiques par rapport aux autres domaines) ou d’une discipline à l’autre (il y a beaucoup de filles en biologie).


Des rendez-vous

JPA : La réflexion est engagée mais elle va se poursuivre en se diversifiant. Les questionnements ne manquent pas. Rendez-vous donc à Bordeaux début juillet aux RMLL 2010, pour les débats, les entretiens et les interviews. Puis lors du prochain Forum Mondial du Libre à Paris, les 30 septembre et 1er octobre 2010. Signalons également le projet européen Predil (Promoting Equality in Digital Literacy) dont une rencontre en septembre prochain en Slovaquie s’intéressera notamment au thème du genre dans le logiel libre.

Notes

[1] Crédit photo : CarbonNYC (Creative Commons By)

[2] On peut d’ores et déjà s’inscrire aux entretiens collectifs en adressant un message à Ayuko Sedooka (ayuko76 AT gmail.com), copie à jean-pierre.archambault AT ac-paris.fr.




À propos de la formation aux logiciels libres, par Jean-Pierre Archambault

Extra Ketchup - CC by-sa« Le libre est à la fois une réponse concrète à des problèmes concrets et un outil de réflexion pour penser les problématiques générales de l’immatériel et la connaissance », nous dit ici Jean-Pierre Archambault, qui n’en est pas à son premier article sur le Framablog.

C’est pourquoi la question de la formation aux logiciels libres est l’un des enjeux majeurs de l’éducation de demain[1].

Il s’agit bien entendu d’être capable de les utiliser. Mais bien au-delà il s’agit aussi et surtout de comprendre qu’ils s’inscrivent dans une culture. Une culture de la collaboration, de la création, de l’autonomie et du partage qui ne doit plus être absent du cursus scolaire de nos étudiants.

À propos de la formation aux logiciels libres

La question est souvent posée de savoir s’il y a une spécificité de la formation aux logiciels libres. La licence d’un programme n’est pas forcément choisie lors de son écriture. Un traitement de texte reste un traitement de texte. Et une procédure récursive n’est pas intrinsèquement copyleft ou copyright. Nous allons examiner la question du point de vue des logiciels, de la culture informatique, des méthodes organisationnelles de réalisation des logiciels libres, de la portée sociétale du libre et des besoins pédagogiques des enseignants.

Former aux outils logiciels

Qu’il faille former à Linux comme on forme à Unix, Mac OS X ou Vista va de soi. Idem pour OpenOffice, FireFox ou The Gimp. Ce sont des systèmes et des applications qu’il faut connaître pour s’en servir « intelligemment ». Mais un système d’exploitation, un traitement de texte ou un tableur sont des outils conceptuels compliqués et complexes de par les objets qu’ils traitent et la multitude de leurs fonctionnalités. Il faut veiller à ne pas entrer dans le tunnel sans fin de la formation à la version n d’un progiciel, puis n+1, d’un usager « presse-boutons ». On connaît ce genre de pratiques pour des produits propriétaires dont les versions défilent à grande vitesse, enrichies de fonctionnalités dont l’utilisateur lambda n’a pas nécessairement besoin. Mais qui peuvent présenter des avantages financiers et des rentes de situation pour des officines de formation. Il faut donc pouvoir s’appuyer sur une appropriation initiale des concepts généraux des traitements de texte, tableurs et gestionnaires de bases de données.

L’informatique, le numérique étant partout dans la société, la question posée est celle de la culture générale de l’homme, du travailleur et du citoyen du 21è siècle. Il s’agit là des trois missions fondamentales des systèmes éducatifs. Le libre, c’est le code source que l’on connaît. Et pas la « boîte noire » miraculeuse qui fait tout pour vous : curieuse d’ailleurs cette représentation mentale qu’ont certains de la prothèse du cerveau qu’est l’ordinateur, que l’on pourrait utiliser sans la connaître ni la comprendre. De ce point de vue, le libre s’inscrit pleinement dans la vision qui considère que les usagers de l’informatique doivent comprendre et maîtriser les outils conceptuels qu’ils utilisent. Les créateurs d’informatique aussi, bien évidemment.

Maurice Nivat nous invite opportunément à relire André Leroy Gourhan qui nous a appris que l’outil n’est rien sans le geste qui l’accompagne et l’idée que se fait l’utilisateur de l’outil de l’objet à façonner[2]. Et d’ajouter : « Ce qui était vrai de nos lointains ancêtres du Neanderthal, quand ils fabriquaient des lames de rasoir en taillant des silex est toujours vrai : l’apprentissage de l’outil ne peut se faire sans apprentissage du geste qui va avec ni sans compréhension du mode de fonctionnement de l’outil, de son action sur la matière travaillée, ni sans formation d’une idée précise de la puissance de l’outil et de ses limites ».

Enseigner l’informatique pour donner une culture générale

Il faut donc former à l’outil. Il faut donner une culture générale informatique à l’ « honnête homme » de notre époque. Or, si une option d’informatique générale a existé au lycée dans les années quatre-vingt, elle a été supprimée au début des années quatre-vingt-dix. La ligne pédagogique selon laquelle les apprentissages doivent se faire à travers les usages de l’outil informatique dans les différentes disciplines existantes, et cela suffit, l’avait emporté, pour des raisons diverses (elle prendra la forme du Brevet informatique et internet, le B2i). Une longue « traversée du désert » commençait. Pour autant, des voix se faisaient entendre. Elles disaient que l’informatique étant partout (dans les autres disciplines scolaires), elle devait être quelque part en particulier, à un moment donné, sous la forme d’une discipline scolaire en tant que telle car la seule utilisation d’un outil, matériel ou conceptuel, ne suffit pas pour le maîtriser.

Gérard Berry, qui avait intitulé sa leçon inaugurale au Collège de France « Pourquoi et comment le monde devient numérique »[3], déclarait dans une interview au journal Le Monde, le 15 avril 2009 : « Du point de vue de l’enseignement de l’informatique, la France rentre résolument dans le XXe siècle. »[4]. Il regrettait que l’« on confonde la notion de computer literacy avec celle de computer sciences ». Et il ajoutait : « Dans les établissements scolaires, on a fait le choix d’enseigner les usages. C’est très insuffisant. C’est la différence entre apprendre à conduire et comprendre comment marche une voiture. Les jeunes quittent le lycée sans connaissance de la science informatique. C’est une aberration ! » .

L’association EPI (Enseignement Public et Informatique) et le groupe ITIC de l’ASTI ont pris ces dernières années de nombreuses initiatives en faveur d’un enseignement de l’informatique au lycée sous la forme d’une discipline d’enseignement général : audiences auprès des autorités de la République, tables rondes, séminaires, textes divers, propositions de programmes scolaires pour le lycée…[5]. Un tel enseignement doit comporter des apprentissages corrrespondant aux grands domaines de la science informatique, à savoir l’algorithmique et la programmation, la théorie de l’information, les machines et leurs architectures, les réseaux, Internet, les bases de données.

Dans le cadre de la réforme du lycée, un enseignement de spécialité optionnel « Informatique et sciences du numérique » a été créé en Terminale S pour la rentrée 2012. Dans son discours devant le Conseil supérieur de l’Éducation, le 10 décembre 2009, s’exprimant sur cette réforme du lycée, Luc Chatel a notamment déclaré : « A l’heure de la société de l’information et de la connaissance, la France a besoin plus que jamais de compétences scientifiques en informatique. Aujourd’hui l’informatique représente 30 % de la recherche et développement dans le monde. Aujourd’hui l’informatique est partout. Nous ne pouvons pas manquer ce rendez-vous majeur et c’est la raison pour laquelle nous proposons en série S une spécialisation « informatique et sciences du numérique » »[6].

Tous ceux qui se sont prononcés en faveur d’une telle mesure se félicitent. Parmi ceux-ci, et ce n’est pas un hasard, figure l’APRIL (« Promouvoir et défendre le logiciel libre »). Dans un communiqué de presse, le 5 janvier 2010, l’association, rappelant qu’«elle a toujours été favorable à ce que l’informatique soit une composante à part entière de la culture générale scolaire de tous les élèves sous la forme notamment d’un enseignement d’une discipline scientifique et technique », souligne « cette première et importante avancée signe d’une certaine rupture »[7]. Elle mentionne que « l’expérience de ces dernières années a clairement montré que le B2i ne fonctionnait pas. Son échec prévisible tient notamment à des problèmes insolubles d’organisation, de coordination et de cohérence des contributions supposées et spontanées des disciplines enseignées. De plus ne sont pas explicitées les connaissances scientifiques et techniques correspondant aux compétences visées. »

Le rapport de la mission parlementaire de Jean-Michel Fourgous, député des Yvelines, sur la modernisation de l’école par le numérique, « Réussir l’école numérique », remis au Ministre de l’Éducation nationale Luc Chatel le 15 février dernier, va dans le même sens[8]. Il met en évidence la portée de cet enseignement de l’informatique : « En créant une matière Informatique et sciences du numérique en terminale, le gouvernement français ouvre enfin la voie de l’apprentissage du numérique et redonne à l’école son rôle d’éducateur. » Et rappelle qu’en définitive le B2i ne correspond pas aux enjeux car « il ne permet pas d’acquérir une culture informatique, permettant de comprendre les techniques sous-tendant le fonctionnement des divers outils numériques… ne prenant pas en compte les connaissances techniques de base nécessaires ».

Le libre, une science

Si le libre est une composante à part entière de l’informatique, il n’en comporte pas moins des spécificités, qui doivent donner lieu à des enseignements dédiés, notamment dans le Supérieur. Il existe une « science du logiciel libre ». Voir l’article de Roberto Di Cosmo auquel nous nous référons ci-après[9].

Si les collaborations avec des partenaires dispersés géographiquement ne datent pas d’aujourd’hui, avec Internet la situation a radicalement changé. La question est posée de savoir sur quels principes scientifiques se fondent des projets comme Wikipédia ou Linux, exemples extrêmes de travail massivement collaboratif. Et de savoir comment en améliorer la stabilité et la fiabilité. Dans le développement du noyau Linux, chaque erreur, ou chaque fonction manquante ou obsolète, peut entraîner des dysfonctionnements majeurs rendant l’ensemble inutilisable. Malgré tout, le « phénomène Linux » a abouti à des versions de plus en plus complètes, fonctionnelles et stables. En fait, le succès des logiciels libres de qualité reposent sur des approches méthodologiques très structurées. L’organisation modulaire du code source, la sélection sévère des contributions et l’existence d’un noyau central de développeurs s’assurant de la cohérence de l’ensemble jouent un rôle essentiel dans la réussite de Linux. Mais la taille atteinte par Linux est telle que l’on est aux limites de ce qui peut être maîtrisé en s’appuyant sur les capacités organisationnelles des communautés. Les logiciels libres sont donc devenus un champ d’étude à part entière pour les informaticiens. Il faut résoudre des questions scientifiques (par exemple, comment gérer rapidement la modification d’un appel de fonction résultant de l’ajout, du changement ou de la suppression d’un paramètre ?). Le projet Coccinelle a fourni une contribution majeure en introduisant la notion de « patch sémantique ». Le projet Mancoosi vise à développer des algorithmes efficaces pour permettre aux utilisateurs d’exprimer leurs préférences lors de mises à jour et d’obtenir des installations personnalisées.

Toutes ces actions de recherche se traduiront dans des enseignements universitaires, pour le libre mais aussi l’informatique en général.

Penser l’immatériel

Dans leur rapport sur l’économie de l’immatériel, Maurice Lévy et Jean-Pierre Jouyet attirent l’attention sur le fait que, dans cette économie, « l’incapacité à maîtriser les TIC constituera (…) une nouvelle forme d’illettrisme, aussi dommageable que le fait de ne pas savoir lire et écrire ». Ils mettent en évidence les obstacles qui freinent l’adaptation de notre pays à l’économie de l’immatériel, notamment « notre manière de penser », invitant à changer un certain nombre de « nos réflexes collectifs fondés sur une économie essentiellement industrielle »[10]. Il faut former à l’informatique.

John Sulston, prix Nobel de médecine, évoquant en décembre 2002 dans les colonnes du Monde Diplomatique les risques de privatisation du génome humain, disait que « les données de base doivent être accessibles à tous, pour que chacun puisse les interpréter, les modifier et les transmettre, à l’instar du modèle de l’open source pour les logiciels ». Il existe une transférabilité de l’approche du libre à la réalisation et la mise à disposition des biens informationnels en général. On a pu le constater à l’occasion des vifs débats qui ont accompagné la transposition par le Parlement en 2006 de la directive européenne sur les Droits d’auteur et les droits voisins dans la société de l’information (DADVSI), ou plus récemment avec la loi Hadopi. Le libre, ses approches et ses méthodes, ses façons efficaces de produire des biens de connaissance qui relèvent du paradigme de la recherche scientifique, ses modèles économiques et ses réponses en termes de propriété intellectuelle, est omniprésent dans les problématiques de l’immatériel. Il faut former à l’informatique libre. Les élèves et les étudiants, travailleurs et citoyens d’aujourd’hui ou de demain, doivent en avoir entendu parler lors de leur scolarité et de leurs études. Le libre est à la fois une réponse concrète à des problèmes concrets et un outil de réflexion pour penser les problématiques générales de l’immatériel et la connaissance.


Production collaborative de ressources pédagogiques

La création de logiciels libres est un travail collaboratif : cette manière de créer du savoir à plusieurs est particulièrement importante si nous voulons préparer les plus jeunes à entrer dans une société du savoir partagé. Certains d’entre eux seront enseignants. Les enseignants ont besoin de documents, de contenus pédagogiques. Pour se former et pour enseigner. Et ils sont bien placés pour les concevoir et les produire eux-mêmes. L’on sait la transférabilité de l’approche du logiciel libre à la réalisation des contenus pédagogiques. Tout le monde, ou presque, connaît les réalisations remarquables de l’association Sésamath[11], « vaisseau-amiral » de la production collaborative de ressources pédagogiques libres, qui a obtenu un prix spécial de l’UNESCO.

Et il faut attacher une licence à un contenu produit. Les Creative Commons sont de mieux en mieux connues mais il reste du chemin à parcourir. Il faut faire connaître leurs modalités juridiques au service de l’objectif général, clairement exprimé, de favoriser la diffusion et l’accès pour tous aux oeuvres de l’esprit, en conciliant les droits légitimes des auteurs et des usagers. Creative Commons renverse le principe de l’autorisation obligatoire. Il permet à l’auteur d’autoriser par avance, et non au coup par coup, certains usages et d’en informer le public. Il est autorisé d’autoriser. C’est incontournable à l’heure d’Internet et du numérique car, sinon, toute vie intellectuelle serait impossible si l’on ne pouvait parler librement des oeuvres et s’il fallait, pour la moindre citation, demander l’autorisation à l’auteur ou à ses héritiers.

Que de nombreux autres enseignants, à la manière de Sésamath, fabriquent des contenus libres dans des démarches de mutualisation et de coopération est une raison supplémentaire de former au libre.

Jean-Pierre Archambault
CNDP-CRDP de Paris, coordonnateur du pôle de compétences logiciels libres du SCEREN

Notes

[1] Extra Ketchup (Creative Commons By-Sa)

[2] « L’informatique, science de l’outil », Maurice Nivat (à paraître dans EpiNet 124) http://www.epi.asso.fr/

[3] Leçon inaugurale le 17 janvier 2008, Cours Séminaires du Collège de France, par Gérard Berry titulaire de la chaire d’innovation technologique Liliane Bettencourt http://www.college-de-france.fr/default/EN/all/inn_tec2007/

[4] « Gérard Berry : L’informatique est une science », de Christian Bonrepaux dans le Cahier Éducation du Monde daté du 16 avril 2009. http://www.lemonde.fr/societe/article/2009/04/15/gerard-berry-l-informatique-est-une-science_1181041_3224.html

[5] $http://www.epi.asso.fr/blocnote/blocsom.htm#itic On pourra aussi se référer, pour les élèves à partir de l’école primaire, à la version francaise de « Computer Science Unplugged » : http://interstices.info/jcms/c_47072/enseigner-et-apprendre-les-sciences-informatiques-a-l-ecole

[6] http://www.education.gouv.fr/cid49972/reforme-du-lycee-discours-devant-le-conseil-superieur-de-l-education.html

[7] http://www.epi.asso.fr/revue/docu/d1001a.htm

[8] http://www.reussirlecolenumerique.fr/

[9] « La science du logiciel libre », Roberto Di Cosmo, La Recherche n°436, décembre 2009 – Professeur à l’Université Paris 7, Roberto Di Cosmo « porte » le projet de centre de recherche sur le logiciel libre de l’INRIA.

[10] Rapport remis à Thierry Breton en décembre 2006.

[11] http://www.sesamath.net