Le chemin de croix du logiciel libre à l’école – Quand Mediapart mène l’enquête

Vauvau - CC byLe logiciel libre et sa culture n’ont toujours pas la place qu’ils méritent à l’école. Tel est l’un des chevaux de bataille de ce blog, qui a parfois l’impression de donner des coups d’épée dans l’eau tant ce sujet ne donne pas l’impression de passionner les foules.

Dans ce contexte médiatiquement défavorable, nous remercions Mediapart de s’être récemment emparé du sujet à la faveur d’une enquête conséquente sur L’école à l’ère numérique.

Ces enquêtes approfondies sont l’une des marques de fabrique de ce pure player qui contrairement à d’autres ne mise pas sur le couple gratuit/publicité mais sur l’abonnement qui offre un accès privé et réservé à la majorité de ses contenus (si je puis me permettre une petite digression, le modèle utopique idéal serait pour moi un nombre suffisant d’abonnés à qui cela ne poserait pas de problèmes que le site soit entièrement public et sous licence de libre diffusion).

Ce dossier comporte cinq articles : Les industriels lorgnent le futur grand plan numérique de Luc Chatel, A Antibes, un collège teste les manuels numériques[1], Thierry de Vulpillières : « Les TICE sont une réponse à la crise des systèmes d’éducation »[2], Nouvelles technologies: remue-ménage dans la pédagogie ![3] et Le chemin de croix du logiciel libre à l’école.

Avec l’aimable autorisation de son auteure, nous avons choisi d’en reproduire le premier dans un autre billet et donc ici le dernier, dans la mesure où nous sommes cités mais aussi et surtout parce qu’ils touchent directement nos préoccupations.

Outre votre serviteur, on y retrouve de nombreux acteurs connus des lecteurs du Framablog. J’ai ainsi particulièrement apprécié la métaphore de la « peau de léopard » imaginée par Jean Peyratout pour décrire la situation actuelle du Libre éducatif en France[4].

Et si ce léopard se métamorphosait doucement mais sûrement en une panthère noire ?

Le chemin de croix du logiciel libre à l’école

URL d’origine du document

Louise Fessard – 12 février 2010 – Mediapart

Et le libre dans tout ça ?

Des logiciels et des contenus garantissant à tous le droit d’usage, de copie, de modification et de distribution, ne devraient-ils pas prospérer au sein de l’éducation nationale ? Si l’administration de l’éducation nationale a choisi en 2007 de faire migrer 95% de ses serveurs sous le système d’exploitation libre GNU/Linux, la situation dans les établissements scolaires est bien plus disparate.

Le choix dépend souvent de la mobilisation de quelques enseignants convaincus et de la politique de la collectivité locale concernée. « On se retrouve avec des initiatives personnelles, très locales et peu soutenues », regrette l’un de ses irréductibles, Alexis Kauffmann, professeur de mathématiques et fondateur de Framasoft, un réseau d’utilisateurs de logiciels libres.

« La situation ressemble à une peau de léopard, confirme Jean Peyratout, instituteur à Pessac (Gironde) et président de l’association Scideralle. Le logiciel libre est très répandu mais dans un contexte où aucune politique nationale n’est définie. C’est du grand n’importe quoi : il n’y a par exemple pas de recommandation ministérielle sur le format de texte. Certains rectorats vont utiliser la dernière version de Word que d’autres logiciels ne peuvent pas ouvrir. »

A la fin des années 1990, Jean Peyratout a développé avec un entrepreneur, Eric Seigne, AbulEdu, une solution réseau en logiciel libre destinée aux écoles et basée sur GNU/Linux. Selon Eric Seigne, directeur de la société de service et de formation informatique Ryxeo spécialisée dans le logiciel libre, environ 1000 des 5000 écoles visées à l’origine par le plan d’équipement « écoles numériques rurales », lancé à la rentrée 2009 par le ministère de l’éducation nationale, ont choisi d’installer AbulEdu. Faute de bilan national, il faudra se contenter de ce chiffre, qui ne concerne que le premier degré, pour mesurer l’importance du libre dans les établissements scolaires.

Autre exemple significatif, en 2007, le conseil régional d’Ile-de-France a choisi d’équiper 220.000 lycéens, apprentis de CFA et professeurs, d’une clé USB dotée d’un bureau mobile libre – développé par la société Mostick, à partir des projets associatifs Framakey et PortableApps.

« Pourquoi payer des logiciels propriétaires ? »

Le libre à l’école a plusieurs cordes à son arc. Jean Peyratout met en avant son interopérabilité – « Nos élèves sont amenés à utiliser à la maison ce qu’ils utilisent à l’école » –, la souplesse dans la gestion du parc – pas besoin d’acheter une énième licence en cas de poste supplémentaire – et surtout son éthique. « Faire de la publicité à l’école est interdit, plaide-t-il. Il me semble qu’utiliser un logiciel marchand à l’école alors qu’il existe d’autres solutions, c’est faire la promotion de ce logiciel. Pourquoi aller payer des logiciels propriétaires dont le format et le nombre limité de licences posent problème ? »

D’autant, souligne Eric Seigne, « qu’en investissant dans le libre, l’argent reste en local, alors qu’en achetant du propriétaire, la plus grande partie de l’argent part à l’étranger où sont implantés les gros éditeurs ». Reste à convaincre sur le terrain les enseignants, non experts et qui n’ont pas envie de mettre les mains dans le cambouis. A Saint-Marc-Jaumegarde par exemple, Emmanuel Farges, directeur d’une école primaire pourtant très technophile, est sceptique. « Seul notre site Internet repose sur un logiciel libre mais ça bogue souvent et il n’y a pas de suivi quand il y a un problème », explique-t-il.

A côté de la poignée d’enseignants militants du libre, se sont pourtant développés des professionnels. « Le fait que les logiciels soient gratuits éveille paradoxalement les soupçons de mauvaise qualité, note Bastien Guerry, doctorant en philosophie et membre de l’Association francophone des utilisateurs de logiciels libres (Aful). Mais il existe des associations locales de prestation de service en logiciel libre qui peuvent assurer un suivi. »

Des sites collaboratifs

« Aujourd’hui, les enjeux portent moins sur l’installation des postes que la mise à disposition de logiciels libres via l’environnement numérique de travail et des clefs USB », prévoit Bastien Guerry. A travers des sites participatifs comme Les Clionautes (histoire-géographie), WebLettres (français), et créés au début des années 2000, des enseignants s’adonnent avec enthousiasme à cette création de logiciels et surtout de contenus.

L’exemple le plus abouti en est Sésamath dont la liste de diffusion regroupe 8000 enseignants, soit un quart des profs de mathématiques français selon l’un des fondateurs du projet, Sébastien Hache, lui-même enseignant au collège Villars à Denain (Nord).

« Tous les enseignants créaient déjà eux-mêmes leurs ressources mais Internet leur a permis de les partager, explique-t-il. Et, comme il n’y a pas plus seul qu’un prof face à sa classe, ça évite à chacun de réinventer la roue dans son coin. » Grâce à la collaboration d’enseignants travaillant à distance, Sésamath a même édité « le premier manuel scolaire libre au monde ». « Les manuels des éditeurs sont d’ordinaire écrits par deux ou trois profs, nous, nous avons eu la collaboration d’une centaine d’enseignants avec de nombreux retours », se félicite Sébastien Hache.

400.000 exemplaires de ce manuel, qui couvre les quatre niveaux de collège, ont été vendus (11 euros pour financer les salaires des cinq salariés à mi-temps de l’association), la version en ligne étant gratuite et bien entendu modifiable en vertu de sa licence libre. L’autre activité du site consiste à créer des logiciels outils et des exercices s’adaptant aux difficultés des élèves. Beaucoup de professeurs de mathématiques sont aussi par ailleurs des développeurs passionnés!

Un foisonnement que s’efforce de fédérer le pôle de compétences logiciels libres du Scérén coordonné par Jean-Pierre Archambault. L’école doit désormais prendre en compte les « mutations engendrées par l’immatériel et les réseaux: enseignants-auteurs qui modifient le paysage éditorial, partage de la certification de la qualité, validation par les pairs, redistribution des rôles respectifs des structures verticales et horizontales… », jugeait-il en juin 2008.

Pas vraiment gagné, constate Alexis Kauffmann. « Rien ne laisse à penser que le ministère de l’éducation nationale comprend et souhaite encourager cette culture libre qui explose actuellement sur Internet », lance-t-il. Dernier exemple en date, l’Académie en ligne lancée par le Cned en juin 2009 propose des cours, certes gratuits, mais pas libres et donc non modifiables, manifestement uniquement conçus pour être imprimés! Pour la collaboration, il faudra repasser…

Notes

[1] On peut lire l’article A Antibes, un collège teste les manuels numériques dans son intégralité sur le site Sauvons l’Université.

[2] On peut lire l’article Thierry de Vulpillières : « Les TICE sont une réponse à la crise des systèmes d’éducation » dans son intégralité sur le site Sauvons l’Université.

[3] On peut lire l’article Nouvelles technologies: remue-ménage dans la pédagogie ! dans son intégralité sur le site Sauvons l’Université.

[4] Crédit photo : Vauvau (Creative Commons By)




Ne pas entrer à reculons dans la société et l’économie numériques

Tibchris - CC by« Il est possible de rémunérer les auteurs, de payer le juste prix et de ne pas payer ce qui est devenu gratuit. Et il est important de cesser d’entrer à reculons dans la société et l’économie numériques. »

Telle est la conclusion de Gratuité et prix de l’immatériel, le nouvel article de Jean-Pierre Archambault que nous vous proposons aujourd’hui. Il n’apporte fondamentalement rien de plus que ce que tout lecteur du Framablog connaissait déjà. Mais l’agencement des faits, la pertinence des exemples et l’enchaînement des arguments en font une excellente synthèse en direction du grand public. Á lire et à faire lire donc[1].

Je ne résiste d’ailleurs pas à vous recopier d’emblée cette petite fiction que l’on trouvera dans le paragraphe en faveur de la licence globale, histoire de vous mettre l’eau à la bouche : « Supposons que, dans le monde physique, ait été inventée une technologie miracle qui permette de remplacer immédiatement, à l’identique et sans aucun coût, tout CD retiré des bacs d’une surface de distribution. Dans un tel monde, il apparaîtrait impensable que des caisses soient disposées en sortie de magasin afin de faire payer les CD emportés par les clients : celui qui part avec 100 CD cause en effet exactement le même coût que celui qui part avec 10 CD ou encore que celui qui part avec 1 000 CD, c’est à dire zéro ! En revanche, personne ne comprendrait que des caisses ne soient pas installées à l’entrée, afin de facturer l’accès à une telle caverne d’Ali Baba. »

Gratuité et prix de l’immatériel

URL d’origine du document

Jean-Pierre Archambault – CNDP et CRDP de Paris – Chargé de mission Veille technologique et coordonnateur du Pôle de compétences logiciels libres du SCÉREN – Médialog n°72 – Décembre 2009

Internet bouleverse les modalités de mise à disposition des biens culturels et de connaissance. Dans l’économie numérique, le coût de production d’une unité supplémentaire d’un bien (musique, film, logiciel…) étant, pour ainsi dire, nul, que doit-on payer ?
La réflexion sur les logiciels libres, biens communs mis à la disposition de tous, peut contribuer à éclairer la question des relations complexes entre gratuité, juste prix et légitime rémunération des auteurs.

Le thème de la gratuité est omniprésent dans nombre de débats de l’économie et de la société numériques, qu’il s’agisse de morceaux de musique, de films téléchargés, ou de logiciels qui, on le sait, se rangent en deux grandes catégories : libres et propriétaires. Les débats s’éclairent les uns les autres, car ils portent sur des produits immatériels dont les logiques de mise à disposition ont beaucoup de points communs.

Concernant les logiciels, « libre » ne signifie pas gratuit. La méprise peut venir de la double signification de free en anglais : libre, gratuit. À moins que son origine ne réside dans le fait qu’en pratique il y a toujours la possibilité de se procurer un logiciel libre sans bourse délier. Il peut s’agir également d’une forme d’hommage à la « vertu » des logiciels libres, et des standards ouverts. En effet, à l’inverse des standards propriétaires qui permettent de verrouiller un marché, ceux-ci jouent un rôle de premier plan dans la régulation de l’industrie informatique. Ils facilitent l’entrée de nouveaux arrivants, favorisent la diversité, le pluralisme et la concurrence. Ils s’opposent aux situations de rentes et de quasi monopole. De diverses façons, les logiciels libres contribuent à la baisse des coûts pour les utilisateurs. Par exemple, l’offre gratuite, faite en 2008 par Microsoft, sur sa suite bureautique en direction des enseignants, mais pas de leurs élèves, est une conséquence directe de la place du libre en général, d’OpenOffice.org en particulier, dans le paysage informatique. Et, c’est bien connu, les logiciels libres sont significativement moins chers que leurs homologues propriétaires.

Gratuit car payé

Il peut arriver que la gratuité brouille le débat. Elle n’est pas le problème. Les produits du travail humain ont un coût, le problème étant de savoir qui paye, quoi et comment. La production d’un logiciel, qu’il soit propriétaire ou libre, nécessite une activité humaine. Elle peut s’inscrire dans un cadre de loisir personnel ou associatif, écrire un programme étant un hobby comme il en existe tant. Elle n’appelle alors pas une rémunération, la motivation des hackers (développeurs de logiciels dans des communautés) pouvant résider dans la quête d’une reconnaissance par les pairs. En revanche, si la réalisation se place dans un contexte professionnel, elle est un travail qui, toute peine méritant salaire, signifie nécessairement rémunération. Le logiciel ainsi produit ne saurait être gratuit, car il lui correspond des coûts. Et l’on sait que dans l’économie des biens immatériels, contrairement à l’économie des biens matériels, les coûts fixes sont importants tandis que les coûts marginaux (coûts de production et diffusion d’un exemplaire supplémentaire) sont peu élevés. Dupliquer un cédérom de plus ou fabriquer un deuxième avion, ce n’est pas la même chose. Télécharger un fichier ne coûte rien (sauf l’accès au réseau).

Mais, même quand un logiciel n’est pas gratuit, il le devient lorsqu’il a été payé ! Enfin, quand il est sous licence libre. Qu’est-ce à dire ? Prenons le cas d’un client qui commande la réalisation d’un logiciel à une société et la lui paye intégralement, dans une relation de sous-traitance. Un travail a été fait et il est rémunéré. Si, en plus, le client a conservé ses droits de propriété sur le logiciel et décide de le mettre à disposition des autres sous une licence libre, le dit logiciel est alors librement et gratuitement accessible pour tout un chacun. Exit les licences par poste de travail. Bien commun, un logiciel libre est à la disposition de tous. À charge de revanche, mais c’est l’intérêt bien compris des uns et des autres de procéder ainsi, même s’il est vrai qu’il n’est pas toujours évident d’enclencher pareil cycle vertueux… Autre chose est de rémunérer des activités de service sur un logiciel devenu gratuit (installation, adaptation, évolution, maintenance…). Même si, ne versons pas dans l’angélisme, la tentation existe de ne pas développer telle ou telle fonctionnalité pour se ménager des activités de service ultérieures.

Il en va pour l’informatique comme pour les autres sciences. Les mathématiques sont libres depuis vingt-cinq siècles. Le temps où Pythagore interdisait à ses disciples de divulguer théorèmes et démonstrations est bien lointain ! Les mathématiques sont donc libres, ce qui n’empêche pas enseignants, chercheurs et ingénieurs d’en vivre.

Argent public et mutualisation

Le libre a commencé ses déploiements dans les logiciels d’infrastructure (réseaux, systèmes d’exploitation). Dans l’Éducation nationale, la quasi totalité des logiciels d’infrastructure des systèmes d’information de l’administration centrale et des rectorats sont libres. Il n’en va pas (encore…) de même pour les logiciels métiers (notamment les logiciels pédagogiques), mais cette situation prévaut en général, que ce soit dans les entreprises, les administrations, les collectivités locales ou dans des filières d’activité économique donnée.

Dans L’économie du logiciel libre[2], François Elie, président de l’Adullact (Association des Développeurs et des Utilisateurs de Logiciels Libres pour l’Administration et les Collectivités Territoriales), nous dit que l’argent public ne doit servir à payer qu’une fois ! Comment ne pas être d’accord avec pareille assertion ? En effet, si des collectivités territoriales ont un besoin commun, il n’y a aucune raison pour qu’elles fassent la même commande au même éditeur, chacune de son côté dans une démarche solitaire, et payent ce qui a déjà été payé par les autres. François Elie propose la mutualisation par la demande.

L’Éducation nationale est certes une « grande maison » riche de sa diversité, il n’empêche qu’il existe des besoins fondamentalement communs d’un établissement scolaire à l’autre, par exemple en matière d’ENT (espaces numériques de travail). Pourquoi des collectivités territoriales partiraient-elles en ordre (inutilement trop) dispersé ? Alors, qu’ensemble, elles peuvent acheter du développement partagé ou produire elles-mêmes. Et, dans tous les cas, piloter et maîtriser les évolutions. Ce qui suppose d’avoir en interne la compétence pour faire, ou pour comprendre et « surveiller » ce que l’on fait faire, aux plans technique et juridique. Dans le système éducatif, les enseignants ont la compétence métier, en la circonstance la compétence pédagogique, sur laquelle fonder une mutualisation de la demande, la production par les intéressés eux-mêmes se faisant dans des partenariats avec des éditeurs publics (le réseau SCÉREN) et privés. L’association Sésamath en est l’illustration majeure mais elle n’est pas seule : il y a aussi AbulEdu, Ofset, les CRDP…[3].

L’argent public ne doit servir qu’une fois, ce qui signifie une forme de gratuité selon des modalités diverses. C’est possible notamment dans l’équation « argent public + mutualisation = logiciels libres ». Le libre a fait la preuve de son efficacité et de ses qualités comme réponse à la question de la production de ce bien immatériel particulier qu’est le logiciel. Rien d’étonnant à cela. La production des logiciels restant une production de connaissances, contrairement à d’autres domaines industriels, elle relève du paradigme de la recherche scientifique. L’approche du logiciel libre, à la fois mode de réalisation et modalité de propriété intellectuelle, est transférable pour une part à d’autres biens, comme les ressources pédagogiques. Le logiciel libre est également « outil conceptuel » pour entrer dans les problématiques de l’économie de l’immatériel et de la connaissance.

Gratuité et rémunération

Revenons sur les coûts fixes et marginaux dans l’économie à l’ère du numérique. L’économie de l’information s’est longtemps limitée à une économie de ses moyens de diffusion, c’est-à-dire à une économie des médias. Elle ne peut désormais plus se confondre avec l’économie du support puisque les biens informationnels ne sont plus liés rigidement à un support donné. L’essentiel des dépenses était constitué par les coûts de production, de reproduction matérielle et de distribution dans les divers circuits de vente. Aujourd’hui, les techniques de traitement de l’information, la numérisation et la mise en réseau des ordinateurs permettent de réduire les coûts de duplication et de diffusion jusqu’à les rendre à peu près nuls. Dans ces conditions, la valeur économique de l’information ne peut plus se construire à partir de l’économie des vecteurs physiques servant à sa distribution. De nouvelles sources de valeur sont en train d’apparaître. Le modèle économique de mise en valeur de l’information déplace son centre de gravité des vecteurs physiques vers des services annexes ou joints dont elle induit la consommation ou qui permettent sa consommation dans de bonnes conditions (services d’adaptation d’un logiciel au contexte d’une entreprise, de facilitation de l’accès à des ressources numérisées, commerce induit sur des produits dérivés, etc.).

Le copyright, qui défend principalement l’éditeur contre des confrères indélicats, aussi bien que le droit d’auteur, qui défend principalement l’auteur contre son éditeur, ont ceci en commun qu’ils créent des droits de propriété sur un bien abstrait, l’information[4]. Tant que cette information est rigidement liée à un vecteur physique, c’est-à-dire tant que les coûts de reproduction sont suffisamment élevés pour ne pas être accessibles aux particuliers, ces droits de propriété peuvent être imposés aisément. Mais le monde bouge…

Les débats sur la loi Création et Internet dite « loi Hadopi » ont tourné autour de la gratuité et de la rémunération des auteurs (et des éditeurs !). Face aux difficultés de recouvrement du droit d’auteur dans l’économie numérique, certains pensent manifestement que la solution réside dans le retour au modèle classique de l’information rigidement liée à son support physique, ce que certaines techniques de marquage pourraient permettre, annulant ainsi les bienfaits économiques de la numérisation et de la mise en réseau. Mais le rapide abandon des DRM (Digital Rights Management ou Gestion des Droits Numériques en français) qui se sont révélés inapplicables (après le vote en 2006 de la transposition en France de la directive européenne DADVSI[5] ) aurait tendance à démontrer le caractère illusoire de ce genre d’approche. Beaucoup pensent qu’un sort identique arrivera aux dispositions contenues dans la « loi Hadopi », que ces façons (anciennes) de poser les problèmes (nouveaux) mènent à une impasse. Pour, entre autres, les mêmes raisons de non faisabilité : le droit se doit d’être applicable. On sait, par ailleurs, que le Conseil constitutionnel a, dans un premier temps censuré le volet sanction de la « loi Hadopi », considérant que le droit de se connecter à Internet relève de la liberté de communication et d’expression et que ce droit implique la liberté d’accès à Internet (seule une juridiction peut être habilitée à le suspendre). Il a estimé que le texte conduisait à instituer une présomption de culpabilité.

Dans le cas d’un transfert de fichier, nous avons déjà signalé que le coût marginal est nul. Que paye-t-on ? Une part des coûts fixes. Mais il arrive un moment où la réalisation du premier exemplaire est (bien) amortie. D’où ces situations de rentes dans lesquelles on paye un fichier téléchargé comme s’il était gravé sur un support physique qu’il aurait fallu fabriquer et acheminer. De plus, l’économie générale des productions (les best sellers et les autres titres) d’un éditeur évolue avec Internet. Dans son ouvrage La longue traîne, Chris Anderson[6] théorise le principe de la longue traîne dans lequel la loi des 20/80 (20% des produits font 80% du chiffre d’affaires) disparaît avec Internet qui, en réduisant les coûts de fabrication et de distribution, permet à tous les produits qui ne sont pas des best-sellers (qui constituent des longues traînes) de rapporter parfois jusqu’à 98% du chiffre d’affaires.

Une licence globale

Il y a donc des questions de fond. Quel est le prix des biens culturels dématérialisés ? Quels doivent être leurs modes de commercialisation ? Alain Bazot, président de l’UFC-Que choisir, les pose[7]. Rappelant qu’un support physique a un coût et qu’il est « rival »[8], que l’on peut multiplier les fichiers numériques d’une oeuvre pour un coût égal à zéro, il en tire la conclusion que « la dématérialisation, parce qu’elle permet un partage sans coût de la culture, parce qu’elle constitue un accès à l’information et à l’art pour tous, remet fondamentalement en cause les modèles économiques existants. Dès lors, il apparaît essentiel de proposer de nouvelles formes de rémunération pour allier les avantages d’Internet à une juste rétribution des artistes/créateurs ». Et comme « dans une économie de coûts fixes, distribuer un ou 10 000 MP3 ne fait pas varier le coût de production », il est plus pertinent « de faire payer l’accès et non pas la quantité. Ce mode de commercialisation, apparu avec la commercialisation de l’accès à internet (le forfait illimité), est le modèle consacré par l’économie numérique ».

Et, pour illustrer le propos, Alain Bazot s’appuie sur une fiction fort pertinente de Nicolas Curien : « Supposons que, dans le monde physique, ait été inventée une technologie miracle qui permette de remplacer immédiatement, à l’identique et sans aucun coût, tout CD retiré des bacs d’une surface de distribution. Dans un tel monde, il apparaîtrait impensable que des caisses soient disposées en sortie de magasin afin de faire payer les CD emportés par les clients : celui qui part avec 100 CD cause en effet exactement le même coût que celui qui part avec 10 CD ou encore que celui qui part avec 1 000 CD, c’est à dire zéro ! En revanche, personne ne comprendrait que des caisses ne soient pas installées à l’entrée, afin de facturer l’accès à une telle caverne d’Ali Baba. »[9]

On retrouve donc la « licence globale », financée par tous les internautes ou sur la base du volontariat, mais également financée par les fournisseurs d’accès qui ont intérêt à avoir des contenus gratuits pour le développement de leurs services. En effet, comme le dit Olivier Bomsel[10], la gratuité est aussi un outil au service des entreprises, pour conquérir le plus rapidement possible une masse critique d’utilisateurs, les innovations numériques voyant leur utilité croître avec le nombre d’usagers, de par les effets de réseau.

Des créateurs ont déjà fait le choix du partage volontaire de leurs oeuvres numériques hors marché. Philippe Aigrain envisage une approche partielle (expérimentale dans un premier temps ?) dans laquelle les ayants droit qui « refuseraient l’inclusion de leurs oeuvres dans un dispositif de partage hors marché garderaient le droit d’en effectuer une gestion exclusive, y compris par des mesures techniques de protection ou par des dispositifs de marquage des oeuvres protégés contre le contournement ». Mais, « ils devraient cependant renoncer à imposer des dispositifs destinés à leurs modèles commerciaux dans l’ensemble de l’infrastructure des réseaux, appareils ou procédures et sanctions. »[11]

Enfin, s’il existe des modèles économiques diversifiés de l’immatériel, il ne faut pas oublier certains fondamentaux. C’est le reproche que Florent Latrive fait à Chris Anderson, « archétype du Californien hype », en référence à son livre paru récemment Free : « Dans son monde, les modèles économiques ne sont l’affaire que des seules entreprises. C’est un monde qui n’existe pas. Chris Anderson zappe largement le rôle de l’État et de la mutualisation fiscale dans sa démonstration. C’est pourtant fondamental : cela fait bien longtemps que l’importance sociale de certains biens, matériels ou immatériels, justifie l’impôt ou la redevance comme source de financement principale ou partielle. La santé gratuite en France n’implique pas le bénévolat des infirmières et des médecins. La gratuité de Radio France ne fait pas de ses journalistes des crève-la-faim »[12]. Effectivement, la santé et l’éducation représentent des coûts importants (des investissements en fait). La question posée n’est donc pas celle de leur gratuité mais celle de l’organisation de l’accès gratuit pour tous aux soins et à l’éducation. La réponse s’appelle sécurité sociale et école gratuite de la République financée par l’impôt.

Il est possible de rémunérer les auteurs, de payer le juste prix et de ne pas payer ce qui est devenu gratuit. Et il est important de cesser d’entrer à reculons dans la société et l’économie numériques.

Notes

[1] Crédit photo : Tibchris (Creative Commons By-Sa)

[2] François Elie, L’économie du logiciel libre, Eyrolles 2009.

[3] Voir J-P. Archambault, « Favoriser l’essor du libre à l’École » , Médialog n°66 et J-P Archambault, « Un spectre hante le monde de l’édition », Médialog n°63.

[4] Concernant la rémunération des auteurs, rappelons qu’elle ne représente en moyenne que 10% du prix d’un produit.

[5] Droits d’auteur et droits voisins dans la société de l’information

[6] Chris Anderson, La longue traîne, 2ème édition, Pearson 2009.

[7] Alain Bazot, « La licence globale : il est temps d’entrer dans l’ère numérique ! », billet posté sur le blog Pour le cinéma – La plateforme des artistes en lutte contre la loi Hadopi

[8] Un bien rival (ou bien privé pur) est un bien pour lequel une unité consommée par un agent réduit d’autant la quantité disponible pour les autres agents.

[9] Nicolas Curien, « Droits d’auteur et Internet : Pourquoi la licence globale n’est pas le diable ? », Janvier 2006.

[10] Olivier Bomsel, Gratuit ! Du développement de l’économie numérique, Folio actuel, 2007.

[11] Philippe Aigrain Internet & création, InLibroVeritas, 2008.

[12] Le modèle économique est un choix éditorial




Educatice 2009 : Demandez le programme libre, avec Jean-Pierre Archambault

Styeb - CC by-saJean-Pierre Archambault œuvre depuis des années pour le logiciel libre à l’école, contribution au pluralisme technologique..

Il ne le fait pas « de l’extérieur », en se contenant de chausser ses gros sabots pour crier haro sur le baudet dans un blog (suivez mon regard !).

Il le fait « de l’intérieur » et par petites touches, au sein même des arcanes de l’Éducation nationale, dans le cadre de l’accord signé en octobre 1998 par le Ministère de l’Education nationale et l’AFUL, ce qui suppose patience, tactique et diplomatie.

Avec le temps c’est toute une petite équipe qui s’est agrégée autour de lui : le pôle de compétences logiciels libres du SCEREN, qui a pris la bonne habitude de venir chaque année nombreux représenter dignement le logiciel libre au Salon Educatec-Educatice (manifestation parallèle au Salon de l’Education mais réservée aux professionnels de l’éducation).

L’occasion était belle pour rencontrer Jean-Pierre Archambault[1], lui demander le programme 2009 de cette manifestation (du 18 au 20 novembre à Paris) et en profiter au passage pour évoquer le situation actuelle du libre dans l’éducation.

Rencontre avec Jean-Pierre Archambault

CNDP-CRDP de Paris, coordonnateur du pôle de compétences logiciels libres du SCEREN


Comme chaque année depuis 2004, le pôle de compétences logiciels libres du SCEREN sera présent au salon Educatec-Educatice.

Oui. Les organisateurs de ce salon ont toujours considéré comme allant de soi, dans leur vision marquée du sceau du pluralisme, qu’il devait y avoir une composante libre dans leur manifestation consacrée à l’informatique pédagogique dans toute sa diversité. Je tiens à les en remercier à nouveau.

Cette année, nous organisons une table ronde – conférence « Logiciels et ressources libres pour l’éducation ». Elle se déroulera le jeudi 19 novembre, de 15h45 à 17h15 en salle 1. Nous ferons un état des lieux en termes de solutions et ressources utilisées. Nous verrons les coopérations de l’institution éducative avec les associations, les collectivités locales et les entreprises. Nous verrons également en quoi le libre est la réponse appropriée à la question de « l’exception pédagogique ».

Nous participerons à deux autres tables rondes : « L’Ecole numérique, de la théorie à la pratique », le mercredi 18 novembre, de 14h à 17h15, en salle 3 ; et « CRDP : valoriser la diffusion multi-support des documents éditoriaux », le jeudi 19 novembre, de 9h30 à 11h, en salle 3[2].


Et il y a bien sûr le village du pôle dont j’ai le souvenir, les années où je suis venu à Educatice, qu’il était une véritable « ruche ».

Ce village s’inscrit dans la mise en oeuvre de l’une des missions du pôle, à savoir fédèrer les initiatives, les compétences et les énergies, ce qui l’amène à coopérer avec de nombreux acteurs, institutionnels ou partenaires de l’Education nationale, ainsi les collectivités locales, les entreprises, les associations.

Le village accueillera différents exposants, institutionnels et associatifs. Le CRDP de Lyon présentera OSCAR, lauréat aux Trophées du libre 2009, un ensemble d’outils qui permet aux administrateurs réseaux d’installer et de gérer facilement une salle informatique. Le CRDP de Paris présentera lui ses différentes activités en matière de logiciels et de ressources libres : partenariats éditoriaux avec Sésamath, réalisation de clés USB, démonstration de Freemind… La présence du CDDP de Seine-Maritime sera centrée sur l’opération du Conseil général qui a consisté à doter tous les collégiens du département d’un bureau virtuel.

Le Réseau Ecole et Nature, dont le but est de développer l’éducation à l’environnement, fera visiter son site réalisé à partir de logiciels libres, et qui vient de faire peau neuve. On connaît bien Sugar, plate-forme pédagogique libre, née du projet One Laptop Per Child (OLPC). Aujourd’hui utilisée sur le XO par plus d’un million d’enfants dans le monde entier, elle sera sur le village.

Les visiteurs pourront faire connaissance avec la toute jeune association EducOoo (un an juste), liée au projet OpenOffice.org Éducation. Elle sert de ressource et vise à faciliter la mise en place et l’accompagnement de projets entre OpenOffice.org et le monde de l’enseignement.

Les visiteurs pourront mieux connaître deux chaînes éditoriales libres, La Poule ou l’Oeuf et Scenari. La Poule ou l’Œuf est une chaîne éditoriale Web dédiée à l’édition de documents longs (monographies, cours, mémoires, thèses, actes…), à destination électronique aussi bien que papier. Elle s’adresse à toute institution éditrice de contenus académiques pour une production structurée sémantiquement et intégrée au réseau, en vue d’une exploitation dynamique et évolutive des savoirs. Scenari, elle, est une chaîne éditoriale générique, basée sur la séparation des formats de stockage et des formats de publication : les formats de stockage décrivent la structure du fonds documentaire et les formats de publication la forme physique du document vue par l’utilisateur.

Seront également présents l’AFUL (Association francophone des utilisateurs de Linux et des logiciels libres) et Scidéralle (les logiciels du Terrier, AbulÉdu, AbulEduLive…).


Educatice est un moment important de l’année scolaire pour le pôle de compétences logiciels libres du SCEREN.

Effectivement. Il s’inscrit aussi dans ce qui est la mission première du pôle qui est d’informer la communauté éducative, afin d’aider les uns et les autres à faire leurs choix. Les modalités sont diverses : organisation et/ou participation à des journées, séminaires, colloques, salons mais aussi textes et articles. Les initiatives sont multiples. Pour les dernières années scolaires, on peut mentionner, entre autres : depuis 2000, la présidence du cycle Education du salon Solutions Linux ; Paris Capitale du Libre ; le Forum Mondial du Libre ; les journées Autour du libre coorganisées par le CNDP et les ENST ; les colloques et séminaires d’ePrep ; les Rencontres de l’Orme, les Trophées du libre ; la Semaine de la Science ; les Rencontres mondiales des logiciels libres…


Comment ces actions d’information sont-elles reçues ?


En général très bien ! Il faut dire qu’est tellement évidente la convergence entre les principes du libre et les missions du système éducatif, la culture enseignante de libre accès à la connaissance et de sa diffusion à tous, de formation aux notions et non à des recettes. L’enseignement requiert la diversité des environnements scientifiques et techniques. La compréhension des systèmes suppose l’accès à leur « secret de fabrication ». Des formes de travail en commun des enseignants, de travail et d’usages coopératifs supposent des modalités de droit d’auteur facilitant l’échange et la mutualisation des documents qu’ils produisent. Du côté des usages éducatifs des TIC, on retrouve l’approche du libre, notamment ses licences GPL ou Creative Commons.

Il faut cependant ajouter qu’informer sur le libre, dans un esprit de diversité scientifique et technologique, ne fut pas toujours un « long fleuve tranquille ». Dans l’éducation comme ailleurs, il y a une pluralité de points de vue. Mais les choses sont entendues, depuis un certain temps déjà : le libre est sans conteste une composante à part entière et de premier plan de l’informatique pédagogique.


Peux-tu nous rappeler le contexte institutionnel ?

Créé en 2002, regroupant aujourd’hui vingt-trois CRDP, le pôle de compétences logiciels libres du SCÉRÉN est à la fois une structure de réflexion et d’action. Il a pris le relais de la Mission veille technologique à qui la direction générale du CNDP avait confié, dès 1999, le pilotage du « chantier » des logiciels libres, dans le contexte institutionnel éducatif défini, en octobre 1998, par un accord-cadre signé entre le Ministère de l’Éducation nationale et l’AFUL. Cet accord, régulièrement reconduit depuis lors, indiquait qu’il y a pour les établissements scolaires, du côté des logiciels libres, des solutions alternatives de qualité et à très moindre coût aux logiciels propriétaires, dans une perspective de pluralisme technologique. Et depuis plus de dix ans, les différents directeurs généraux qui se sont succédé à la tête du CNDP ont accordé une attention particulière au dossier des logiciels libres.


Quel est l’accueil du côté des collectivités locales ?

Bon également. Il y a des enjeux financiers, la question étant moins celle de la gratuité que celle du caractère « raisonnable » des coûts informatiques. Comme le dit François Elie, président de l’Adullact (Association pour le développement des logiciels libres dans l’administration et les collectivités territoriales), un logiciel est gratuit une fois qu’il a été payé et l’argent public ne doit servir qu’une fois pour payer un logiciel.

Les logiciels libres permettent de réduire d’une manière très significative les dépenses informatiques dans le système éducatif. Les collectivités locales sont de plus en plus sensibles à cet aspect des choses, notamment pour le poste de travail avec la suite bureautique OpenOfice.org. La licence GPL permet aux élèves, et aux enseignants, de retrouver à leur domicile leurs outils informatiques, sans frais supplémentaires et en toute légalité. Concernant les ENT, la région Ile-de-France va déployer une solution libre.


Et les ressources pédagogiques ?

Dans l’éducation, le libre c’est le logiciel mais également (et peut-être surtout) les ressources pédagogiques. Dans ce domaine, le « vaisseau-amiral » est l’association Sésamath[3]. Les lecteurs de Framasoft étant très bien informés des multiples activités de cette association remarquable, nous rappellerons qu’elle a eu un Prix de l’UNESCO en 2007 et qu’elle édite (en partenariat avec un éditeur privé) des manuels scolaires pour le collège qui connaissent un franc succès, et bientôt pour les CPGE (Classes préparatoires aux grandes écoles).


On sait que le numérique et les réseaux ont plongé l’édition scolaire (et l’édition en général) dans une période de turbulences. D’un côté, Sésamath met librement et gratuitement ses réalisations pédagogiques sur la Toile. De l’autre, elle procède à des coéditions, à des prix « raisonnables », de logiciels, de documents d’accompagnement, de produits dérivés sur support papier avec des éditeurs, public (les CRDP de Paris et de Lille) et privé, à partir des ressources mises en ligne sur la Toile. Le succès est au rendez-vous. La question est posée de savoir si ce type de démarche préfigure un nouveau modèle économique de l’édition scolaire, dans lequel la rémunération se fait sur le produit papier, sur le produit dérivé, le produit hybride et par le service rendu.


Des enjeux de société aussi


Oui, comme l’ont montré les vifs débats qui ont accompagné la transposition par le Parlement en 2006 de la directive européenne sur les Droits d’auteur et les droits voisins dans la société de l’information (DADVSI) et plus récemment à propos de la loi Hadopi.

John Sulston, prix Nobel de médecine, évoquant en décembre 2002 dans les colonnes du Monde Diplomatique les risques de privatisation du génome humain, disait que « les données de base doivent être accessibles à tous, pour que chacun puisse les interpréter, les modifier et les transmettre, à l’instar du modèle de l’open source pour les logiciels ». Il existe une transférabilité de l’approche du libre à la réalisation des biens informationnels en général.

La question est donc posée de savoir si le modèle du libre préfigure des évolutions majeures en termes de modèles économiques et de propriété intellectuelle. Le logiciel libre est un « outil conceptuel » pour entrer dans les problématiques de l’économie de l’immatériel et de la connaissance. Incontournable pour le citoyen. Or l’on sait que l’une des trois missions de l’Ecole est de former le citoyen !

En guise de conclusion

Je voudrais profiter de cet interview pour remercier l’association Framasoft pour la place qu’elle occupe dans le paysage éducatif et culturel, et le rôle qu’elle y joue, la qualité de sa réflexion, son attachement au bien commun et au pluralisme.

Et puis, rendez-vous au salon Educatice. Pré-enregistrement sur le site d’Educatec-Educatice avec demande de badge d’accès gratuit.

Notes

[1] Crédit photo : Styeb (Creative Commons By-Sa)

[2] Signalons que Jean-Pierre Archambault, cette fois-ci avec sa casquette de président de l’EPI, animera également une table ronde, le vendredi 20 novembre de 11h15 à 12h45, « Un enseignement de l’informatique au lycée », avec Gérard Berry, Professeur au Collège de France, membre de l’Académie des Sciences, Gilles Dowek, Professeur d’informatique à l’École Polytechnique et Pierre Michalak, IA-IPR de l’Académie de Versailles. Thème souvent évoqué dans le Framablog.

[3] Remarque : Sésamath sera non seulement présent à Educatice mais également au Salon de l’Éducation, stand CE40.




Enseigner et apprendre l’informatique sans ordinateur

Computer Science UnpluggedLe Framablog se fait volontiers le relai de ceux qui, comme Jean-Pierre Archambault (de l’EPI), souhaient une présence renforcée et assumée de l’informatique à l’école française.

En témoignent ces trois articles mis en ligne : Ouvrons le débat de l’informatique à l’école, L’informatique doit-elle rester un simple outil à l’école ? et, plus récemment, Fracture et solidarité numériques.

Voilà pour la théorie.

Pour ce qui concerne la pratique, c’est-à-dire ce que pourrait être concrètement aujourd’hui un enseignement et un apprentissage de l’informatique en tant que discipline à part entière, c’est encore chez nous en discussion et en débat.

Mais nul doute que le livre (sous licence Creative Commons By-Nc-Nd) Computer Science Unplugged, que vient de traduire l’équipe Intertices[1] et que nous présente ci-dessous Roberto Di Cosmo, sera en bonne place dans la bibliothèque des ressources de référence.

En tordant le coup au passage à deux idées reçues : on peut s’initier et faire de l’informatique sans ordinateur et ce dès le plus jeune âge[2].

Enseigner et apprendre les sciences informatiques à l’école

URL d’origine du document

Roberto Di Cosmo – 9 octobre 2009 – Interstices

Computer Science UnpluggedLes TIC, Technologies de l’Information et de la Communication, ont pris une telle importance dans la société d’aujourd’hui, que le simple fait de priver un de nos concitoyens d’un accès à Internet reviendrait à en faire un citoyen de deuxième classe : on en a besoin pour communiquer, travailler, échanger avec les administrations publiques et les entreprises privées, vendre, acheter, se divertir, s’informer et informer les autres.

Mais ces technologies en évolution rapide changent aussi profondément notre rapport au monde du travail, aux loisirs et à la sphère politique, au point qu’il devient aujourd’hui indispensable de fournir à tous nos concitoyens les notions fondamentales nécessaires pour se constituer un modèle mental correct de ce qu’est l’informatique.

Il ne suffit plus de savoir se servir d’une souris (ce à quoi peut suffire le Brevet Informatique et Internet) : il faut comprendre et maîtriser la véritable mutation sociétale induite par la dématérialisation de l’information, la mise en réseau des connaissances et l’augmentation massive de la puissance de calcul disponible ; cela exige des capacités de traitement et d’analyse conceptuelle de l’information qui ne se font pas sans une bonne familiarité avec ce que l’on appelle, dans certains cercles, la « pensée informatique » (Computational Thinking en anglais).

Computer Science UnpluggedIl est devenu indispensable d’introduire les sciences informatiques de façon généralisée dans l’enseignement primaire et secondaire : c’est une lourde tâche qui devrait commencer par la reconnaissance de l’importance de la discipline, qui ne se résume pas à l’apprentissage de ses épiphénomènes technologiques, passer par la définition d’un programme d’études et se poursuivre par la formation des maîtres, mais cela demandera du temps, alors que le besoin est pressant.

En tant qu’enseignants et/ou chercheurs en informatique, nombre d’entre nous ressentent la nécessité d’y contribuer sans plus attendre : des collègues néozélandais, Tim Bell, Ian H. Witten et Mike Fellows, ont mis en place il y a quelques années un programme d’enseignement des fondements de l’informatique, Computer Science Unplugged, avec le parti pris de transmettre quelques notions de base de façon ludique, et sans aucun recours à l’ordinateur. Ils ont réussi à montrer comment, si on peut passer des heures à cliquer sur une souris sans rien apprendre d’informatique, on peut aussi apprendre beaucoup d’informatique sans toucher une souris.

Computer Science UnpluggedGrâce aux efforts coordonnés par l’équipe d’Interstices, avec le concours de Anne Berry, Paul Gibson, Isabelle Souveton, et de l’association EPI, ces ressources sont enfin disponibles dans la langue de Molière, pour le plus grand plaisir de tous ceux qui désirent faire partager largement aux jeunes générations leur passion pour cette science magnifique qu’est l’informatique. Jouons à découvrir ensemble la puissance magique de la représentation de l’information, des algorithmes et des langages de programmation.

Mais assez de théorie, c’est le moment de passer à la pratique : téléchargez le document (en PDF, 14 Mo), choisissez votre première activité, et faites-la partager aussi largement que possible !

Notes

[1] Interstices est un site de culture scientifique créé par des chercheurs, lancé à l’initiative de l’INRIA, en partenariat avec le CNRS, les Universités et l’ASTI.

[2] Les trois images proviennent du site Computer Science Unplugged et illustrent le contrôle d’erreurs appelé bit de parité.




Fracture et solidarité numériques, par Jean-Pierre Archambault

Ferdinand Reus - CC by-saRien de tel pour aborder la rentrée scolaire qu’un excellent article de synthèse de notre ami Jean-Pierre Archambault qui réunit ici deux de ses sujets favoris : le logiciel libre et la place de l’informatique à l’école.

Il est intéressant de noter que l’auteur a associé dans le titre les termes « fracture » et « solidarité », sachant bien que le logiciel, les contenus et les formats libres et ouverts apportent non seulement une réponse au premier mais développent et favorisent le second[1].

Un article un peu long pour un format blog mais qui vaut le coup ! Pour vous donner un ordre d’idée il correspond à deux cents messages Twitter que l’on parcourerait en enfilade 😉

Fracture et solidarité numériques

URL d’origine du document

Jean-Pierre Archambault – septembre 2009 – Association EPI
Licence Creative Commons By-Nd


Le thème de la fracture numérique est solidement installé dans le paysage des débats sociétaux. La nécessité de la réduire prend des allures de consensus : acceptons-en l’augure. Une raison de fond à cela : la place sans cesse croissante de l’informatique dans tous les secteurs de la société, et les enjeux qui y correspondent. La fracture numérique ce sont les inégalités d’accès aux réseaux, aux contenus entre le Nord et le Sud, ainsi qu’au sein des pays développés. Ce sont aussi les inégalités en terme de maîtrise conceptuelle du numérique. Nous examinerons ces problématiques. Le libre, désormais composante à part entière de l’industrie informatique, a permis de constituer au plan mondial un bien commun informatique, accessible à tous. Nous verrons donc pourquoi il est intrinsèquement lié à la lutte contre la fracture numérique, et donc à la solidarité numérique, avec son approche, transposable pour une part à la production des autres biens informationnels, ses réponses en matière de droit d’auteur. Comme le sont également les formats et les standards ouverts. Et nous rappellerons que dans la société de la connaissance, la « matière grise » et l’éducation jouent, on le sait, un rôle décisif.

Le numérique partout

Le numérique est partout, dans la vie de tous les jours, au domicile de chacun, avec l’ordinateur personnel et l’accès à Internet ; dans l’entreprise où des systèmes de contrôle informatisés font fonctionner les processus industriels. Ses métiers, et ceux des télécommunications, occupent une place importante dans les services. On ne compte plus les objets matériels qui sont remplis de puces électroniques. Il y a relativement, et en valeur absolue, de plus en plus de biens informationnels. C’est l’informatique, pour ne prendre que ces exemples, qui a récemment fait faire de très spectaculaires progrès à l’imagerie médicale et qui permet ceux de la génétique. Elle modifie progressivement, et de manière irréversible, notre manière de poser et de résoudre les questions dans quasiment toutes les sciences expérimentales ou théoriques qui ne peuvent se concevoir aujourd’hui sans ordinateurs et réseaux. Elle change la manière dont nous voyons le monde et dont nous nous voyons nous-mêmes. L’informatique s’invite aussi au Parlement, ainsi on s’en souvient, en 2006, pour la transposition de la directive européenne sur les Droits d’auteur et les droits voisins dans la société de l’information (DADVSI), suscitant des débats complexes où exercice de la citoyenneté rimait avec technicité et culture scientifique. Et plus récemment avec la « loi Hadopi ».

La fracture numérique

On imagine sans peine que pareille omniprésence de l’informatique signifie des enjeux forts, économiques notamment. Que tous ne soient pas sur un pied d’égalité, loin s’en faut, face aux profondes mutations que le numérique engendre ne saurait a priori surprendre. Cela vaut, à plus ou moins grande échelle, pour tous les pays. Il y a beaucoup de fractures : sanitaires, alimentaires… Culturelles aussi. Ainsi concernant la maîtrise de sa langue maternelle. Ainsi la fracture mathématique, qui serait bien plus grave encore s’il n’y avait pas un enseignement de culture générale mathématique tout au long de la scolarité. Si l’interrogation sur « la poule et l’oeuf » est éternelle, on peut penser qu’« il est certain que la fracture numérique résulte des fractures sociales produites par les inégalités sur les plans économique, politique, social, culturel, entre les hommes et les femmes, les générations, les zones géographiques, etc. »[2].

Un problème d’accès

La fracture numérique tend à être perçue, d’abord et surtout, comme un problème d’accès : les recherches sur Internet avec son moteur préféré ne laissent aucun doute à ce sujet. Il y a ceux pour qui il est possible, facile de disposer d’ordinateurs connectés au réseau mondial, et les autres. C’est vrai pour le monde en général, et la France en particulier. En juin 2008, présentant « ordi 2.0 », plan anti-fracture numérique, Éric Besson rappelait qu’« être privé d’ordinateur aujourd’hui pour les publics fragiles, c’est être privé d’accès à l’information, à la culture, à l’éducation, aux services publics, donc être exposé à un risque accru de marginalisation ». Un premier volet de son plan, qui confirmait la possibilité prévue par la loi de finances 2008, permettait aux entreprises de donner leurs ordinateurs inutiles, mais en état de marche, à leurs salariés, sans charges sociales ni fiscales. Un deuxième volet visait à favoriser la création d’une filière nationale de reconditionnement, de redistribution et de retraitement des ordinateurs, ainsi que la mise en place d’un « label de confiance », garantissant un matériel en état de fonctionnement et vendu à très bas prix.

La fracture numérique a une dimension géographique. De ce point de vue, la question de l’accès égal aux réseaux est primordiale. Une politique d’aménagement du territoire ne peut que s’en préoccuper. Avec l’objectif de « démocratiser le numérique en accélérant le déploiement des infrastructures », la décision 49 du Rapport de la Commission pour la libération de la croissance française, sous la présidence de Jacques Attali[3], consistait en la « garantie d’une couverture numérique optimale en 2011 ». La décision 51, « faciliter l’accès de tous au réseau numérique » correspondait à l’objectif de réduire les fractures numériques, dont il était dit qu’« elles recouvrent la fracture sociale ». Elle proposait d’« accélérer le taux d’équipement en ordinateurs dans les foyers et TPE/PME avec un objectif d’équipement de 85 % en 2012, au moyen notamment de donations des PC usagés, de soutiens spécifiques aux étudiants, et microcrédit social ».

Pour le World Wide Web consortium qui, le 28 mai 2008, lançait un groupe d’intérêt web mobile pour le développement social (MW4D), « les technologies mobiles peuvent ouvrir aux plus pauvres des accès à des services d’informations essentiels comme les soins de santé, l’éducation, les services administratifs »[4].

L’accès à Internet, un bien commun

Le problème de l’accès est bien réel. De l’accès à Internet, tel qu’il a été créé et a fonctionné jusqu’à maintenant, et qu’il faut préserver. En effet, Internet est, en lui-même, un bien commun accessible à tous, une ressource sur laquelle n’importe quel usager a des droits, sans avoir à obtenir de permission de qui que ce soit. Son architecture est neutre et ouverte. Le « réseau des réseaux » constitue un point d’appui solide dans la lutte contre la fracture numérique[5].

Internet repose sur des standards ouverts de formats de données (HTML pour écrire des pages web) et de protocoles de communication (TCP/IP, HTTP). Il fonctionne à base de logiciels libres : Apache, SendMail, Linux… Il est donc impossible de verrouiller le réseau par la pratique du secret. Les logiciels libres contribuent à construire une plate-forme neutre. Ils la protègent par des licences comme la GPL et la diffusion du code source, garantissant aux développeurs qu’elle le restera dans l’avenir.

Les logiciels et les contenus numériques

Si l’accent est mis, à juste titre, sur la nécessité de disposer d’un ordinateur pour accéder au monde du numérique[6], les discours sont en général plus « discrets » sur le système d’exploitation. Or, sans système d’exploitation, que les acheteurs ont encore trop souvent l’impression de ne pas payer même lorsqu’il est « propriétaire », pas de machine qui fonctionne.

La fracture numérique, c’est aussi les inégalités d’accès aux logiciels et aux contenus, les régimes de propriété intellectuelle qui entravent leur circulation, leur production. Il y a désormais deux informatiques qui coexistent : libre et propriétaire. Des contenus numériques sous copyright mais aussi sous licences Creative Commons. Ces approches diffèrent sensiblement, sont quasiment antinomiques. Le débat sur leurs « mérites » respectifs, et les choix à opérer, se situe de plain-pied dans la problématique de la fracture numérique. Il peut arriver qu’il en soit absent, les deux « protagonistes » n’étant pas explicitement nommés. Cela étant, la Conférence « Repenser la fracture numérique » de l’Association for Learning Technology, dans une vision multidimensionnelle de la fracture numérique, posait la question « Open or proprietary ? »[7]. Une question qui mérite effectivement d’être posée.

Ce fut le cas à l’Université d’été de Tunisie qui s’est déroulée à Hammamet, du 25 au 28 août 2008[8]. Organisée par le Fonds Mondial de Solidarité Numérique (FSN)[9] et par l’Association pour le Développement de l’Éducation en Afrique (ADEA), elle était consacrée au thème de « La solidarité numérique au service de l’enseignement ». À son programme figuraient notamment les usages du TBI (Tableau blanc interactif), la création de ressources pédagogiques par les enseignants « auto-producteurs » et le rôle des communautés d’enseignants, les problématiques de droits d’auteur. Un atelier, qui portait sur les ressources pédagogiques des disciplines scientifiques et techniques des lycées, a fait différentes propositions dont l’une essentielle aux yeux de ses participants, qui affirme que les logiciels et les ressources pédagogiques utilisés et produits doivent être libres. Les standards et les formats de données doivent être ouverts[10]. Trois raisons ont motivé cette proposition : les coûts, le caractère opérationnel de la production collaborative de contenus pédagogiques, et le fait que les modalités de réalisation et les réponses du libre en terme de propriété intellectuelle sont en phase avec la philosophie générale d’un projet de solidarité numérique, à savoir partage, coopération, échange.

Le projet RELI@, « Ressources en ligne pour institutrices africaines », est destiné à améliorer la qualité de l’enseignement dans les pays du Sud par l’utilisation des outils et contenus numériques. Il repose sur des logiciels et ressources libres. Il a tenu son premier atelier à Dakar, du 22 au 24 octobre 2008[11]. Un « Appel de Dakar » a été lancé pour la production panafricaine de ressources pédagogiques numériques libres.

L’Unesco prime le libre

En 2007, l’association Sésamath[12] a reçu le 3e prix UNESCO (sur 68 projets) sur l’usage des TICE[13]. Pour le jury, Sésamath est « un programme complet d’enseignement des mathématiques conçu par des spécialistes, des concepteurs et près de 300 professeurs de mathématiques ». Il a été récompensé « pour la qualité de ses supports pédagogiques et pour sa capacité démontrée à toucher un large public d’apprenants et d’enseignants ».

« Remerciant particulièrement la commission française pour l’UNESCO qui a soutenu officiellement sa candidature », l’association Sésamath a vu dans l’obtention de ce prix « l’ouverture d’une nouvelle ère pour son action, vers l’internationalisation et plus particulièrement encore vers l’aide au développement ». Elle a ajouté : « Que pourrait-il y avoir de plus gratifiant pour des professeurs de Mathématiques que de voir leurs productions coopératives libres (logiciels, manuels…) utilisées par le plus grand nombre et en particulier par les populations les plus défavorisées ? C’est vrai dans toute la Francophonie… mais de nombreuses pistes de traductions commencent aussi à voir le jour. »[14]

Les deux lauréats 2007 étaient le Consortium Claroline[15] et Curriki[16]. Claroline, représenté par l’Université Catholique de Louvain, en Belgique, fournit à quelque 900 établissements répartis dans 84 pays une plate-forme « open source », sous licence GPL, en 35 langues. Claroline offre une série d’outils pédagogiques interactifs et centrés sur l’apprenant. C’est un modèle de réseau et de communauté qui met en relation des apprenants, des enseignants et des développeurs du monde entier. Créée en 2004 par Sun Microsystems, Curriki est une communauté mondiale qui se consacre à l’éducation et à la formation. Elle a désormais le statut d’organisme à but non lucratif. Elle fournit un portail Internet, un ensemble d’outils et de services aux utilisateurs grâce auxquels chacun peut librement concevoir, regrouper, évaluer et enrichir les meilleurs programmes d’enseignement, ce qui permet de répondre aux besoins de toutes les classes d’âge et de toutes les disciplines. Curriki a ainsi créé une communauté très vivante composée d’enseignants, d’apprenants, de ministères de l’Éducation, d’établissements scolaires et d’organisations publiques et privées.

L’UNESCO a ainsi mis à l’honneur des démarches éducatives fondées sur le libre, logiciels et ressources.

Parmi les avantages du libre

Parmi les avantages du libre, bien connus, il y a des coûts nettement moins importants. Si libre ne signifie pas gratuit, on peut toujours se procurer une version gratuite d’un logiciel libre, notamment en le téléchargeant. Une fantastique perspective quand, organisée au niveau d’un pays, la diffusion d’un logiciel libre permet de le fournir gratuitement à tous, avec seulement des coûts de « logistique » pour la collectivité mais une économie de licences d’utilisation à n’en plus finir.

Partage-production collaborative-coopération sont des maîtres mots de la solidarité numérique qui supposent des modalités de propriété intellectuelle qui, non seulement, favorisent la circulation des ressources numériques et les contributions des uns et des autres mais, tout simplement l’autorisent. La réponse est du côté de la GPL et des Creative Commons.

L’on sait la profonde affinité entre libre et standards et formats ouverts. Or, par exemple, les documents produits par un traitement de texte lambda doivent pouvoir être lus par un traitement de texte bêta, et réciproquement. La coopération et l’échange sont à ce prix. Il s’agit là d’une question fondamentale de l’informatique et de la fracture numérique. Tout citoyen du monde doit pouvoir avoir accès à ses données, indépendamment du matériel et du logiciel qu’il utilise. De plus en plus de biens informationnels ont une version numérisée. L’enjeu est d’accéder au patrimoine culturel de l’humanité, de participer à sa production, d’être un acteur à part entière du partage et de la coopération.

Avec le libre, chaque communauté peut prendre en main la localisation/culturisation qui la concerne, connaissant ses propres besoins et ses propres codes culturels mieux que quiconque. Il y a donc, outre une plus grande liberté et un moindre impact des retours économiques, une plus grande efficacité dans le processus, en jouant sur la flexibilité naturelle des créations immatérielles pour les adapter à ses besoins et à son génie propre. C’est aussi plus généralement ce que permettent les « contenus libres », c’est-à-dire les ressources intellectuelles – artistiques, éducatives, techniques ou scientifiques – laissées par leurs créateurs en usage libre pour tous. Logiciels et contenus libres promeuvent, dans un cadre naturel de coopération entre égaux, l’indépendance et la diversité culturelle, l’intégration sans l’aliénation.

Les logiciels (et les ressources) libres, composante à part entière de l’industrie informatique, ne peuvent qu’avoir une place de choix dans la lutte contre la fracture numérique. Sans pour autant verser dans l’angélisme. Entre les grands groupes d’acteurs du libre (communautés de développeurs, entreprises, clients comme les collectivités), dont les motivations et ressorts sont divers, il existe des conflits et des contradictions. Des dérives sont possibles, comme des formes de travail gratuit. Mais au-delà des volontés des individus, il y a la logique profonde d’une façon efficace de produire des contenus de qualité[17].

L’accès à la culture informatique

Dans un texte de l’UNESCO, TIC dans l’éducation[18], il est dit que « l’utilisation des TIC dans et pour l’éducation est vue maintenant dans le monde entier comme une nécessité et une opportunité. ». Les grandes questions sur lesquelles l’UNESCO se concentre en tant « qu’expert et conseiller impartial » sont : « Comment peut-on employer les TIC pour accélérer le progrès vers l’éducation pour tous et durant toute la vie ? (…) En second lieu, les TIC, comme tous les outils, doivent être considérées en tant que telles, et être employées et adaptées pour servir des buts éducatifs. » Elle revendique que « l’initiation à l’informatique soit reconnue comme une compétence élémentaire dans les systèmes d’enseignement »[19].

Le numérique, ce sont des outils conceptuels, des abstractions, une discipline scientifique et technique en tant que telle. Au service des autres disciplines, comme le sont les mathématiques. L’ordinateur est une prothèse du cerveau, dont on se sert d’autant plus intelligemment qu’on en connaît l’« intelligence »[20]. La fracture numérique ne serait-elle pas aussi (d’abord ?) une fracture culturelle, qui ne concerne pas que le Sud ? D’ailleurs, ne parle-t-on pas fréquemment de l’« accès » à la culture ?

« L’utilisation d’un outil, si fréquente et diversifiée soit-elle, ne porte pas en elle-même les éléments qui permettent d’éclairer sa propre pratique. »[21] « Comment en effet procéder à une recherche d’information efficace lorsque l’on n’a aucune connaissance du mode de fonctionnement de l’instrument utilisé ? »[22] Or, une enquête menée auprès de 640 000 utilisateurs de l’internet en France en 2001 avait montré que 87 % d’entre eux ne savaient pas se servir d’un moteur de recherche[23]. « Depuis que "l’homo faber" fabrique des outils et s’en sert, une bonne intelligence de l’outil est considérée comme nécessaire pour une bonne utilisation, efficace, précise et raisonnée : plus on en sait quant aux possibilités de réglage et aux conditions d’utilisation mieux cela vaut, partout. Il n’y aurait que l’informatique qui échapperait à cette règle et où l’ignorance serait un avantage ! »[24].

Partout dans le monde, lutter véritablement contre la fracture numérique suppose de donner à tous les élèves les fondamentaux scientifiques du domaine[25]. L’objectif est la maîtrise de ces instruments intellectuels d’un type nouveau. Elle n’est pas vraiment aisée et nécessite des années d’apprentissage (pour un individu il faut environ 20 ans pour maîtriser l’ensemble des instruments et méthodes liés à l’exercice d’une pensée rationnelle). On voit mal comment la diffusion d’objets matériels permettrait en elle-même de raccourcir les délais d’apprentissage, comment on entrerait dans le monde du numérique, abstrait et conceptuel, sans en faire un objet d’étude.

À l’appui de cette nécessité d’enseignement en tant que tel, le fait que la fracture numérique peut se loger là où on ne l’attend pas. Ainsi pointe-t-on une fracture numérique qui émerge, non plus entre les particuliers, mais entre les entreprises, notamment les plus petites et les plus grandes[26]. D’un côté « les mieux loties, accompagnées d’une armée de consultants ou naturellement aguerries à ces sujets ». De l’autre « des centaines de milliers d’entreprises qui souhaitent ardemment tirer profit, dès maintenant, des outils à disposition mais qui butent sur la complexité technologique, les tarifications inadaptées, les offres sur ou sous dimensionnées sans parler des compétences inaccessibles et en voie de raréfaction ». En fait, on voit aujourd’hui émerger « une nouvelle e-aristocratie qui va à l’encontre de la promesse de démocratisation des bénéfices économiques des NTIC (productivité, économie, accessibilité) ».

Dans leur rapport sur l’économie de l’immatériel[27], Maurice Lévy et Jean-Pierre Jouyet soulignent que, dans l’économie de l’immatériel, « l’incapacité à maîtriser les TIC constituera (…) une nouvelle forme d’illettrisme, aussi dommageable que le fait de ne pas savoir lire et écrire ». Ils mettent en évidence les obstacles qui freinent l’adaptation de notre pays à l’économie de l’immatériel, notamment « notre manière de penser », invitant à changer un certain nombre de « nos réflexes collectifs fondés sur une économie essentiellement industrielle ».

La lutte contre la fracture numérique a bien d’abord une dimension éminemment culturelle. Il s’agit d’un enjeu éducatif majeur, de culture générale scientifique et technique pour tous. D’un défi aussi dont les réponses pour le relever se trouvent d’évidence dans les systèmes éducatifs, dont c’est une des raisons d’être.

Jean-Pierre Archambault
Chargé de mission au CNDP-CRDP de Paris

Notes

[1] Crédit photo : Ferdinand Reus (Creative Commons By-Sa)

[2] Les politiques de tous les bords, beaucoup d’institutions (Banque Mondiale et le G8, l’Union Européenne, l’UNESCO…) s’emparent de la problématique de la fracture numérique, avec l’objectif affirmé de la résorber. D’autres s’en inquiètent : « Dejà, le fait qu’une telle notion fasse l’objet d’un consensus aussi large, au sein de groupes sociaux qui s’opposent les uns aux autres, donne à penser qu’elle est scientifiquement fragile. ». Voir La fracture numérique existe-t-elle ?, Éric Guichard, INRIA – ENS.

[3] http://www.liberationdelacroissance.fr/files…

[4] http://www.sophianet.com/wtm_article47688.fr.htm

[5] On pourra se référer aux études de Yochai Benkler reprises par Lawrence Lessig dans son remarquable ouvrage L’avenir des idées, Presses universitaires de Lyon, 2005. Voir « Innover ou protéger ? un cyber-dilemme », Jean-Pierre Archambault, Médialog n°58.

[6] Mais, à trop privilégier dans le discours le nécessaire équipement de tous, il y a le risque de donner à croire que les intérêts des constructeurs ne sont pas loin, en arrière plan de la « noble » lutte contre la fracture numérique.

[7] http://thot.cursus.edu/rubrique.asp?no=27124

[8] http://www.tunisiait.com/article.php?article=2912

[9] ttp://www.dsf-fsn.org/cms/component/option…

[10] http://repta.net/repta/telechargements/Universite_Tunisie…

[11] Premier atelier RELI@ à Dakar : Appel de DAKAR pour la production panafricaine de ressources pédagogiques numériques libres.

[12] http://sesamath.net

[13] http://portal.unesco.org/fr…

[14] http://www.sesamath.net/blog…

[15] http://www.claroline.net/index.php?lang=fr

[16] http://www.curriki.org/xwiki/bin/view/Main/WebHome

[17] L’économie du logiciel libre, François Élie, Eyrolles, 2008.

[18] http://portal.unesco.org/ci/fr/ev.php-URL_ID=2929…

[19] http://portal.unesco.org/ci/fr/ev.php-URL_ID=4347…

[20] « Informatique et TIC : une vraie discipline ? », Jean-Pierre Archambault, Médialog n° 62,

[21] Ordinateur et système éducatif : quelques questions, in Utilisations de l’ordinateur dans l’enseignement secondaire, Jean-Michel Bérard, Inspecteur général de l’Éducation nationale, Hachette Éducation, 1993.

[22] « La nature du B2i lui permet-elle d’atteindre ses objectifs ? » Jean-François Cerisier, Les dossiers de l’ingénierie éducative n° 55, septembre 2006.

[23] http://barthes.ens.fr/atelier/theseEG/

[24] « Enseigner l’informatique », Maurice Nivat, membre correspondant de l’Académie des Sciences,

[25] Voir : Le bloc-notes de l’EPI, La formation à l’informatique et aux TIC au lycée / Proposition de programme / Seconde Première Terminale et « Quelle informatique enseigner au lycée ? », Gilles Dowek, professeur d’informatique à l’École Polytechnique, intervention à l’Académie des Sciences du 15 mars 2005.

[26] Une fracture numérique existe aussi entre les entreprises, Vincent Fournoux, Le Journal du Net du 31 juillet 2008.

[27] L’économie de l’immatériel – La croissance de demain, rapport de la commission sur l’économie de l’immatériel remis à Thierry Breton, Maurice Lévy, Jean-Pierre Jouyet, décembre 2006.




Numérique, droit d’auteur et pédagogie

Mr. Theklan - CC by-saPour ceux qui arrivent encore à résister aux sollicitations permanentes d’Internet pour réussir l’exploit de parcourir jusqu’au bout de longs documents, nous vous proposons aujourd’hui la lecture d’un article de Jean-Pierre Archambault, paru initialement dans la revue Terminal, qui interroge le présent mais surtout l’avenir des ressources pédagogiques à l’ère du numérique.

Parce que si l’on n’y prend pas garde, on pourrait bien vite se retrouver peu ou prou en face des mêmes tensions que celles qui ont été mises à jour lors de l’examen du projet de loi Création et Internet. Quid en effet d’un monde[1] où la propriété finirait par contraindre de trop l’accès et le partage, a fortiori à l’école ?

Numérique, droit d’auteur et pédagogie

Jean-Pierre Archambault
Terminal n° 102, Automne-Hiver 2008-2009, édition l’Harmattan, p. 143-155.

Les ressources pédagogiques utilisées dans les cours sont l’un des cœurs de l’enseignement, correspondant à des démarches et des conceptions d’apprentissage. Il y a les ressources que se procurent les enseignants. Éditées à des fins explicitement pédagogiques ou matériaux bruts non conçus initialement pour des usages scolaires, mais y trouvant naturellement leur place, comme une œuvre musicale ou une reproduction de tableau. Leurs modèles économiques et leurs modalités de propriété intellectuelle, vis-à-vis de l’institution éducative sont nécessairement distincts.

Il y a aussi les ressources produites par les enseignants eux-mêmes, aujourd’hui dans le contexte radicalement nouveau issu de l’omniprésence de l’ordinateur et d’Internet, à des échelles dont les ordres de grandeur sont sensiblement différents de ceux de l’ère du pré-numérique. Elles sont élaborées dans des processus collaboratifs qui appellent nécessairement des réponses en termes de droits d’auteur de nature à permettre et favoriser l’échange par une circulation fluide des documents.

La problématique juridique est vaste. Nous examinerons les licences de logiciels et de ressources libres – certains points qui font débat comme la sécurité juridique, considération importante pour les établissements scolaires. En effet, elles éclairent et illustrent la situation nouvelle et irréversible créée par l’irruption du numérique dans les processus de création de biens informationnels et la place de ceux-ci, sans cesse croissante, relativement et en valeur absolue. Nous poserons la question de l’exception pédagogique, en relation avec les missions de l’École et l’exercice concret du métier d’enseignant, au temps nouveau du numérique.

Un modèle français

Les ressources pédagogiques, au premier rang desquelles les manuels scolaires, mais aussi la banale préparation de cours, l’article ou la photographie « sur laquelle on est tombé »… ont toujours joué un rôle important dans l’exercice du métier d’enseignant, variable selon les disciplines. Comme support de cours bien sûr, mais aussi comme vecteur de mise en oeuvre de nouveaux programmes ou support de formation (derrière un scénario pédagogique, il y a toujours une pratique professionnelle). Il existe un modèle français de l’édition scolaire dont la figure centrale, le manuel des élèves, relève pour l’essentiel du secteur privé. Ce modèle a acquis ses lettres de noblesse et fait ses preuves depuis deux siècles. L’histoire de l’édition scolaire en France est l’histoire des relations entre trois acteurs majeurs, l’État, les éditeurs et les auteurs – des enseignants et des inspecteurs – et de leurs rapports de force mouvants, dans lesquels il arrive que la technique intervienne. Ainsi, à partir de 1811, un auteur ne peut plus soumettre directement à l’État un manuscrit sous prétexte, parmi d’autres raisons, que son examen est long et difficile. Une proposition de manuel doit être obligatoirement communiquée sous forme d’imprimé. L’éditeur devient, de fait, incontournable.

Depuis une quarantaine d’années, les manuels scolaires se sont profondément transformés. L’iconographie occupe jusqu’à 50 % de la surface. L’ouvrage permet des lectures plurielles et des usages multiples, qui préfigurent ceux de l’hypermédia. Il n’y a plus de cours en tant que tel… Le résultat combiné de cette complexité croissante des manuels, de la concurrence des méthodes actives et de la souplesse de la photocopie est sans appel : on constate depuis les années quatre-vingt une tendance à la perte de vitesse de l’utilisation du manuel traditionnel, même si l’attachement symbolique demeure[2][3]. L’enfant chéri de l’édition scolaire connaît une forme de crise…

Une rupture

…et le numérique arrive dans ce contexte. Rude concurrent ! En effet, le manuel scolaire, ce livre d’une centaine de pages, qu’on ne lit plus d’une façon linéaire mais dans lequel on navigue avec des index et des renvois, ce livre ne saurait rivaliser avec Internet et le multimédia, leurs hyperliens, leurs millions de pages et leurs outils de recherche automatisée. Le livre n’est désormais plus « l’enfant unique ».

Plus généralement, le numérique transforme radicalement le paysage éditorial installé. Certes, les enseignants ont toujours réalisé des documents à l’intention de leurs élèves, en préparant leurs cours. Jusqu’à l’arrivée de l’ordinateur et d’Internet, une élaboration collaborative avec des collègues et la visibilité des ressources produites ne pouvaient aller au-delà d’un cercle restreint et rapproché. Modifier un document écrit à la main était et demeure une opération lourde, qui plus est quand il circule et que chacun y met sa griffe. Dans les années 70 encore, les photocopieuses étaient rarissimes, les machines à alcool fastidieuses à utiliser.

Des échanges sur une plus grande échelle supposaient de mettre en forme des notes manuscrites, et la machine à écrire manquait de souplesse, ne tolérant pas vraiment les fautes de frappe. Le manuel scolaire était alors la seule perspective pour une diffusion élargie, l’éditeur le passage obligé, et on lui accordait d’autant plus facilement des droits sur la fabrication des ouvrages que l’on ne pouvait pas le faire soi-même ! Mais, aujourd’hui, les conditions de la production des ressources pédagogiques, numériques pour une part en augmentation régulière, ont donc radicalement changé, du fait de la banalisation des outils informatiques de réalisation des contenus (du traitement de texte aux logiciels de publication) et d’Internet qui favorise à la fois les productions individuelles et le développement du travail collectif des enseignants, dans leur établissement, ou disséminés sur un vaste territoire, à la manière des programmeurs qui écrivent des logiciels libres.

Il y a une transférabilité de l’approche du libre, des logiciels à la réalisation des autres biens immatériels. Internet permet aux auteurs de toucher un vaste public potentiel qui peut aisément reproduire leurs documents, les utiliser, les modifier… La profusion des ressources éducatives que l’on peut consulter sur Internet est là pour en témoigner. En nombre, les enseignants auteurs-utilisateurs sont devenus un acteur autonome à part entière de l’édition scolaire. On peut, pour le moins, parler de turbulences dans le secteur[4][5].

Sésamath

Cette association est synonyme d’excellence en matière de production pédagogique et de communauté d’enseignants-auteurs-utilisateurs. En effet, Sésamath a reçu une mention d’honneur pour le prix 2007 Unesco-Roi Hamad Bin Isa Al-Khalifa sur l’utilisation des technologies de l’information et de la communication dans l’éducation. L’Unesco a décidé d’attribuer une mention spéciale au projet de manuel libre « pour la qualité de ses supports pédagogiques et pour sa capacité démontrée à toucher un large public d’apprenants et d’enseignants ». L’association a également été récompensée aux Lutèce d’Or (Paris, capitale du libre). Elle regroupe une soixantaine de professeurs de mathématiques de collèges. De l’ordre de 400 contributeurs-auteurs utilisent régulièrement les outils de travail coopératif qu’elle a mis en place (Wiki, Spip, forums, listes de diffusion…). Animée d’une volonté forte de production de ressources sous licence libre, et si possible formats ouverts, Sésamath ne soutient que des projets collaboratifs dont elle favorise et encourage les synergies. L’association donne les résultats : environ un million de visiteurs sont comptabilisés chaque mois sur l’ensemble de ses sites. Parmi les projets soutenus par l’association figure Mathenpoche. Dix académies hébergent le logiciel sur un serveur local, en plus du serveur mis à disposition par Sésamath pour les professeurs des autres académies, en partenariat avec le Centre de ressources informatiques de Haute-Savoie (Citic74).

Ce sont ainsi 5 000 professeurs qui utilisent la version réseau de Mathenpoche à laquelle sont inscrits 260 000 élèves. Plus de 160 000 connexions élèves sont enregistrées sur les serveurs chaque mois, auxquelles il faut ajouter 236 000 connexions en accès libre sur le site public de Mathenpoche. MathémaTICE est une revue en ligne sur l’intégration des TICE dans l’enseignement des mathématiques, née en septembre 2006. Enfin, Le Manuel Sésamath pour la classe de cinquième, premier manuel scolaire libre, fruit du travail collaboratif d’une cinquantaine de collègues, s’est vendu à 72 000 exemplaires à la rentrée 2006. Le Manuel Sésamath pour la quatrième s’est vendu, lui, à plus de 90 000 exemplaires en septembre 2006. à n’en point douter, en cette rentrée 2008, le Manuel de troisième connaîtra le succès, comme ses prédécesseurs.

Les communautés d’enseignants auteurs-utilisateurs se multiplient[6][7][8]. Utilisant à plein les potentialités d’interaction du Web, elles fonctionnent comme les communautés de développeurs de logiciels libres. Leurs membres ont une vision et une identité communes. Organisées pour fédérer les contributions volontaires, dans une espèce de synthèse de « la cathédrale et du bazar », ces communautés répondent à des besoins non ou mal couverts et doivent compter en leur sein suffisamment de professionnels ayant des compétences en informatique. Les maîtres mots de la division du travail y sont « déléguez » et « distribuez ».

Les licences de logiciels libres

Les logiciels libres sont désormais une composante à part entière de l’informatique[9]. Parmi les raisons qui expliquent cette rapide évolution, le fait que l’approche du libre, qui relève du paradigme de la recherche scientifique, est en phase avec la nature profonde de l’activité d’écriture de logiciels (difficile par exemple de mener des projets combinant des millions et des millions de lignes de programme quand on n’a pas accès au code source) et qu’elle est ainsi gage d’efficacité et de qualité. Les enseignants utilisent des logiciels libres et certains en produisent. Pour autant, le long fleuve du libre, en général et dans l’éducation en particulier, n’est pas toujours tranquille. Intimement liées au modèle économique, il y a les réponses en termes de droit d’auteur. Et il arrive que des questions juridiques soient mises en avant, notamment celles ayant trait à la compatibilité des licences libres avec le droit français, à une certaine insécurité juridique. Qu’en est-il exactement ?[10].

La typologie classique des licences Logiciel libre comprend deux ensembles principaux, licences avec ou sans copyleft, et un cas spécial : le domaine public. La caractéristique des licences sans copyleft, dites type BSD est de ne pas obliger à conserver la même licence pour une oeuvre dérivée. Le code des logiciels utilisant ces licences peut donc être intégré dans du logiciel propriétaire ou du logiciel libre avec copyleft.

Les licences avec copyleft exigent qu’un logiciel dérivé conserve son statut de logiciel libre, notamment par la fourniture du code source de la version modifiée. En pratique, cela signifie qu’il n’est pas possible de diffuser un logiciel propriétaire incorporant du code utilisant une telle licence. La principale licence de ce type est la GNU General Public licence (GNU GPL) de la FSF (Free Software Fondation). D’autres licences de ce type sont la Lesser General Public License (LGPL) de la FSF, qui offre la possibilité de lier dynamiquement le programme à une application propriétaire. La LGPL est notamment utilisée par le projet OpenOffice.org. La licence CeCILL est une licence francophone proposée par le CEA, le CNRS et l’Inria pour les mondes de la recherche, de l’entreprise et des administrations, et plus généralement pour toute entité ou individu désirant diffuser ses résultats sous licence de logiciel libre, en toute sécurité juridique. Les auteurs de CeCILL l’ont déclarée compatible avec la GNU GPL. Et la FSF a indiqué que CeCILL faisait partie des licences compatibles avec la GNU GPL. Chaque licence doit préciser les licences qui lui sont compatibles.

« Une complexité conceptuelle de la licence GPL est qu’elle prétend ne pas être un contrat, ce qui peut poser des difficultés de compréhension en Europe ». Si, aux États-Unis, la GPL s’appuie essentiellement sur le copyright, en France et dans de nombreux pays d’Europe, l’habitude est de licencier les logiciels par des contrats, acceptés par les deux parties avec les clauses de responsabilité inhérentes aux contrats logiciels. « L’utilisation licite d’un programme sous GNU GPL n’impose pas une relation contractuelle entre l’utilisateur et le titulaire des droits d’auteur »[11]. Cette différence d’appréciation et la volonté d’avoir une licence d’origine française ou européenne basée sur une mécanique contractuelle sont à l’origine de la rédaction des licences CeCILL et EUPL. « Néanmoins, la validité de la licence GPL a été confirmée à plusieurs reprises par des tribunaux européens ». La diffusion sous des licences d’origine américaine comme la GNU GPL pouvant poser certaines questions de droit, engendrant des incertitudes qui peuvent dissuader des entreprises ou des organisations d’utiliser ou d’apporter leurs contributions aux logiciels libres. Dans ce contexte, le Cea, le Cnrs et l’Inria ont donc entrepris la rédaction de contrats de licences de logiciels libres visant à accroître la sécurité juridique « en désignant un droit applicable (et les tribunaux compétents pour juger d’éventuels litiges), en l’occurrence le droit français, conforme au droit européen et qui a vocation à concerner 27 pays », à préciser exactement l’étendue des droits cédés et à encadrer « la responsabilité et les garanties accordées par les concédants dans les limites permises par le droit français et européen ». Il y a une version française qui, avec la version anglaise fait également foi. Elle s’impose, de par la loi, aux organismes de recherche et établissements publics français.

L’utilisateur secondaire, c’est-à-dire la personne admise à utiliser un logiciel libre (vous et moi) à l’exclusion de tout acte de copie, de modification, d’adaptation et de distribution, est dans une situation juridique spéciale. Il n’a pas de relation contractuelle avec le concédant de la licence dans la mesure où il n’a pas consenti à la licence et ne connaît pas le plus souvent le concédant, auteur du logiciel libre qu’il utilise. « Il ne paraît pas possible de faire valoir un éventuel consentement implicite à la conclusion d’une licence et ce d’autant plus que le droit français ne permet pas en cette matière les accords tacites ».

Ces difficultés tiennent pour une part au droit, français notamment, qui, s’il accorde aux auteurs un droit exclusif sur leurs créations, ne dit rien d’explicite quant à des modalités leur permettant de faire connaître leurs volontés concernant les usages de leurs œuvres. Il y a là un vide juridique, sinon une forme d’incohérence. Cela étant, les licences de type GPL sont particulièrement protectrices des droits des utilisateurs dans la mesure où les contributeurs successifs s’obligent les uns les autres à respecter les dits droits, en s’appuyant sur les traités internationaux en matière de droit d’auteur. De plus, la publication et l’utilisation par les administrations françaises et européennes de licences libres (comme CeCILL et EUPL) traduisent la maturation juridique de la diffusion du libre, contribuant ainsi de fait, plus que fortement, à créer un environnement « sécurisé » pour les utilisateurs. Et puis, il y a des millions et des millions d’utilisateurs de logiciels libres en France et dans le monde. Une des vertus du droit étant de s’adapter aux évolutions, technologiques en particulier… l’insécurité, très relative, ne manquera pas de n’avoir été que momentanée.

Les licences de ressources libres

Les enseignants et les institutions éducatives ont encore tendance à mettre en ligne des ressources pédagogiques sans se poser explicitement la question de leurs licences. D’où un certain flou. Mais les licences de ressources libres ont commencé à faire leur chemin dans les problématiques éditoriales. Leur objectif est de favoriser le partage, la diffusion et l’accès pour tous sur Internet des œuvres de l’esprit, en conciliant les droits légitimes des auteurs et des usagers. Cela passe par des modalités juridiques correspondant aux potentialités de la Toile, notamment à cette possibilité de diffusion quasi instantanée d’une ressource immatérielle à des milliers et des millions de personnes. Le projet Creative Commons s’y emploie[12]. Il a vu le jour à l’université de Standford, au sein du Standford Law School Center for Internet et Society, Lawrence Lessig en étant l’un des initiateurs. Il s’agit donc d’adapter le droit des auteurs à Internet.

Creative Commons renverse le principe de l’autorisation obligatoire. Il permet à l’auteur d’autoriser par avance, et non au coup par coup, certains usages et d’en informer le public. Il est autorisé d’autoriser. Métalicence, Creative Commons permet aux auteurs de se fabriquer des licences, dans une espèce de jeu de Lego simple, constitué de seulement quatre briques. Première brique : attribution. L’utilisateur, qui souhaite diffuser une œuvre, doit mentionner l’auteur. Deuxième brique : commercialisation. L’auteur indique si son travail peut faire l’objet ou pas d’une utilisation commerciale. Troisième brique : non-dérivation. Un travail, s’il est diffusé, ne doit pas être modifié. Quatrième brique : partage à l’identique. Si l’auteur accepte que des modifications soient apportées à son travail, il impose que leur diffusion se fasse dans les mêmes termes que l’original, c’est-à-dire sous la même licence. La possibilité donnée à l’auteur de choisir parmi ces quatre composantes donne lieu à onze combinaisons de licences. Grâce à un moteur de licence proposé par le site de Creative Commons, l’auteur obtient automatiquement un code HTML à insérer sur son site qui renvoie directement vers le contrat adapté à ses désirs.

L’exception pédagogique

Les enseignants utilisent des documents qu’ils n’ont pas produits eux-mêmes, dans toutes les disciplines, mais particulièrement dans certaines d’entre d’elles comme l’histoire-géographie, les sciences économiques et sociales ou la musique : récitation d’un poème, lecture à haute voix d’un ouvrage, consultation d’un site Web… Ces utilisations en classe ne sont pas assimilables à l’usage privé. Elles sont soumises au monopole de l’auteur dans le cadre du principe de respect absolu de la propriété intellectuelle. Cela peut devenir mission impossible, tellement la contrainte et la complexité des droits se font fortes. Ainsi pour les photographies : droits du photographe, de l’agence, droit à l’image des personnes qui apparaissent sur la photo ou droit des propriétaires dont on aperçoit les bâtiments… Difficile d’imaginer les enseignants n’exerçant leur métier qu’avec le concours de leur avocat ! Mais nous avons vu les licences Creative Commons qui contribuent, en tout cas sont un puissant levier, à développer un domaine public élargi de la connaissance. Et la GNU GPL et le CeCILL qui permettent aux élèves et aux enseignants de retrouver, dans la légalité, leurs environnements de travail sans frais supplémentaires, ce qui est un facteur d’égalité et de démocratisation. Mais la question de l’exception pédagogique dans sa globalité, une vraie question, reste posée avec une acuité accrue de par le numérique : quelque part, le copyright est antinomique avec la logique et la puissance d’Internet.

L’exception pédagogique, c’est-à-dire l’exonération des droits d’auteurs sur les oeuvres utilisées dans le cadre des activités d’enseignement et de recherche, et des bibliothèques, concerne potentiellement des productions qui n’ont pas été réalisées à des fins éducatives. Par exemple, le Victoria and Albert Museum de Londres, à l’instar du Metropolitan Museum of art de New York, a décidé de ne plus facturer le droit de reproduction des œuvres de sa collection lorsqu’elles sont publiées à des fins d’enseignement, leur mise en ligne restant cependant soumise à conditions 13.

La société Autodesk a ouvert un portail étudiant de l’ingénierie et de la conception numérique depuis lequel les élèves, étudiants et enseignants de toutes les disciplines peuvent notamment télécharger gratuitement des versions pour étudiants de ses logiciels, toutes ses ressources concernant la conception architecturale, la conception graphique, le génie civil et la conception mécanique et électrique.

L’activité d’enseignement est désintéressée et toute la société en bénéficie. L’éducation n’est pas un coût mais le plus nécessaire (et le plus noble) des investissements. L’exception pédagogique a donc une forte légitimité sociétale. De plus, entrés dans la vie active, les élèves auront naturellement tendance à, par exemple, préconiser les logiciels qu’ils auront utilisés lors de leur scolarité. En la circonstance le système éducatif promeut des produits qu’il a pendant longtemps payé cher (avant que le libre contribue à une baisse sensible des prix pratiqués). D’un strict point de vue économique, il ne serait nullement aberrant que ce soit au contraire les éditeurs qui payent pour que les élèves utilisent leurs produits ! On n’en est pas encore là. Sans nier certains excès auxquels la photocopie non maîtrisée peut donner lieu, il ne faut pas oublier que les établissements d’enseignement contribuent déjà à la défense du droit d’auteur en versant des sommes importantes (près de trois millions d’euros de la part des universités) pour la photocopie d’œuvres protégées, au nom de la fameuse lutte contre le « photocopillage ». Les bibliothèques, quant à elles, doivent déjà faire face au paiement de droits de prêt diminuant fortement leur pouvoir d’achat.

On distingue le cas de l’édition scolaire dont la raison d’être est de réaliser des ressources pour l’éducation, et qui bien évidemment doit en vivre. L’édition scolaire traverse une période de turbulences de par le numérique. Les questions posées sont notamment celles de son positionnement par rapport aux productions enseignantes, du caractère raisonnable ou non des prix pratiqués, de l’existence d’un marché captif, d’un nouveau modèle économique combinant licences libres et rémunération sur les produits dérivés… mais pas celle du bien-fondé d’une légitime rémunération d’un travail fait, dans le contexte d’une école républicaine gratuite et laïque. Deux types de solutions existent pour assurer l’exception pédagogique : la voie contractuelle et la voie législative.

La voie contractuelle

En mars 2006, le ministère de l’Éducation nationale a signé des accords avec les syndicats d’éditeurs. Ils concernent les œuvres des arts visuels ; les enregistrements sonores d’oeuvres musicales, la vidéo-musique et les interprétations vivantes des œuvres musicales ; les œuvres cinématographiques et audiovisuelles ; les livres et les musiques imprimées ; les publications périodiques imprimées. Ils autorisent et limitent certains usages d’œuvres protégées par les enseignants, à des fins d’illustration des activités d’enseignement et de recherche. Ils couvrent une période allant de janvier 2007 à 2009, date à laquelle une exception sera inscrite dans le Code de la Propriété intellectuelle (CPI).

Les publics visés sont notamment la classe et la formation initiale. Les cas autorisés sont la diffusion ou projection en classe d’œuvres protégées de tout enregistrement audio (même intégral), de toute image, texte ou de partition, de toute œuvre audiovisuelle obtenue par un canal hertzien gratuit, de toute représentation (interprétation en particulier) en classe d’une œuvre ; la reproduction papier d’œuvres protégées pour les élèves de la classe (10 % maximum d’un livre ou d’une partition, 30 % d’un périodique) avec selon les types d’établissements un quota de copies par élève et par an ; la reproduction numérique d’images protégées donnée à titre temporaire pour toute œuvre diffusée en classe, avec un maximum de 20 images incorporées dans chaque travail pédagogique ou de recherche mis en ligne sur Intranet et des limitations (400 × 400 pixels, 72 dpi, pas de recadrage, pas d’accès direct aux œuvres, pas d’indexation, déclaration des œuvres par formulaire à l’AVA) ; la diffusion audio et audiovisuelle lors de concours ou colloques (extraits audio d’une œuvre limités à 30 secondes dans la limite de 10 % de la durée totale chacun, représentants, additionnés, moins de 15 % du total).

Les accords ne concernent notamment pas l’analyse d’une œuvre pour elle-même, la formation continue, l’utilisation en classe de DVD ou de VHS du commerce (les droits de diffusions ou de prêt doivent être alors acquittés par les centres de documentation des établissements), la création de bases d’œuvres protégées numérisées consultables en Intranet (sous forme de fichiers image, son ou vidéo en particulier), la distribution de fichiers numériques d’œuvres protégées aux élèves, la possibilité de faire des liens profonds sur des sites pour disposer, par exemple, d’extraits audio organisés de manière thématique.

Pour les livres et les musiques imprimées, les accords prévoient des vérifications (Article 10) : « Les représentants des ayants droit pourront procéder ou faire procéder à des vérifications portant sur la conformité des utilisations d’œuvres visées par l’accord au regard des clauses de l’accord. Les agents assermentés de chaque représentant des ayants droit auront la faculté d’accéder aux réseaux informatiques des établissements afin de procéder à toutes vérifications nécessaires. Ils pourront contrôler notamment l’exactitude des déclarations d’usage et la conformité de l’utilisation des œuvres visées par l’accord avec chaque stipulation de l’accord. En cas de manquement à ces obligations contractuelles, les représentants des ayants droit pourront requérir du chef d’établissement ou du responsable du réseau le retrait des œuvres ou extraits d’œuvres visées par l’accord utilisé illicitement. En cas de contestation sur l’application de l’accord, le comité de suivi se réunit pour constater l’absence de respect d’une clause de l’accord et proposer une solution aux parties. » Cette possibilité d’intrusion sur les réseaux des établissements scolaires a été diversement appréciée.

Des entraves à l’activité pédagogique

Les limitations prévues dans les accords (nombre de pixels, durée des extraits…) ne sont pas sans poser de réels problèmes pédagogiques. Yves Hulot, professeur d’éducation musicale à l’IUFM de Versailles (Cergy-Pontoise), en pointent quelques-uns. La combinaison d’une résolution limitée à 400 × 400 pixels et d’une définition de 72 dpi de la représentation numérique d’une œuvre avec une utilisation portant sur l’œuvre intégrale empêche le recours à des photos de détails des oeuvres.

Par exemple : « Le tableau Les noces de Cana de Véronèse comporte une intéressante viola da braccio au premier plan. Avec une telle limite de résolution sur cet immense tableau, il est impossible de projeter et de zoomer convenablement sur ce détail. Qui peut croire justifier de telles limitations ? » La durée des extraits d’une oeuvre musicale crée également des obstacles de nature pédagogique. « Si je travaille en classe de troisième sur la compagnie des Ballets russes, il me semble évident que pour apprécier l’importance de la révolution qu’elle apporta, une analyse d’au moins deux ballets s’impose, en l’occurrence L’après-midi d’un faune et Le sacre du Printemps, ce qui permet d’aborder deux musiciens capitaux, Debussy et Stravinsky. Le premier dure environ dix minutes, le second environ trente. Habitués que sont nos élèves à côtoyer majoritairement le genre chanson, il me semble utile de les confronter à d’autres durées et d’autres langages musicaux ou chorégraphiques. Mais je crains qu’à trop limiter l’activité pédagogique des enseignants on finisse par empêcher ceux qu’ils éduquent de réellement avoir les clés d’accès à la culture ! »

La voie législative

Les contenus numériques en ligne sont quasiment absents des accords précités. Est-ce un hasard ? L’affrontement fondamental est-il prudemment différé ? C’est principalement l’écrit numérique qui est envisagé, l’audio et l’audiovisuel en étant exclus. La mise en ligne d’images protégées suppose qu’elles soient incorporées à un travail pédagogique ou de recherche, et qu’elles soient limitées en qualité et en quantité. Ces accords couvrent essentiellement des activités de diffusion en classe, les seuls cas de reproduction à des fins de distribution concernent la photocopie. Les possibilités d’échange de fichiers numériques avec les élèves et les étudiants sont donc limitées, tout comme les échanges entre collègues lors de travaux interdisciplinaires.

Ils favorisent une offre éditoriale qui est de type catalogue et non sur-mesure ou granulaire malgré les développements récents de l’offre numérique. « En dehors du cadre et des limites prévus par les accords, l’obtention dans l’enseignement des droits d’exploitation d’œuvres protégées, représente une double difficulté : savoir à quels ayants droit demander les autorisations et avoir le budget éventuellement nécessaire pour s’en acquitter. D’où la nécessité de proposer un dispositif permettant aux enseignants d’être à la fois clairs du point de vue juridique et d’obtenir facilement les droits pour ce qu’ils se proposent de faire pour leurs élèves ou leurs étudiants. »[13]

Les enjeux de l’exception pédagogique demeurent

À l’occasion de la transposition par le Parlement, en 2006, de la directive européenne sur les Droits d’auteurs et les droits voisins dans la société de l’information (Dadvsi), qui prévoit la possibilité d’une exception pédagogique, la CPU (Conférence des présidents d’université) et l’ADBU (Association des directeurs de bibliothèque universitaire), constatant que la France était est l’un des rares pays européens à ne pas l’avoir retenue dans son projet de loi, redoutaient que cette législation n’aboutisse à une domination accrue de la littérature de langue anglaise déjà majoritaire parmi les ressources d’information disponibles en ligne, notre seule référence devenant Google et nos seules sources étant les données anglo-saxonnes.

Un amendement adopté lors du débat de 2006, applicable en 2009 (CPI L122-5 3-e), définit l’exception pédagogique comme : « La représentation ou la reproduction de courtes œuvres ou d’extraits d’œuvres, autres que des œuvres elles-mêmes conçues à des fins pédagogiques, à des fins exclusives d’illustration ou d’analyse dans le cadre de l’enseignement et de la recherche, à l’exclusion de toute activité ludique ou récréative, et sous réserve que le public auquel elles sont destinées soit strictement circonscrit au cercle des élèves, étudiants, enseignants et chercheurs directement concernés, que leur utilisation ne donne lieu à aucune exploitation commerciale, et qu’elle soit compensée par une rémunération négociée sur une base forfaitaire nonobstant la cession du droit de reproduction par reprographie mentionnée à l’article L. 122-10 ». Il comporte des aspects restrictifs. Le rendez-vous de 2009 est important.

Un usage loyal

Pierre-Yves Gosset, délégué de Framasoft, se prononce pour un système de fair use à l’américaine. Aux États-Unis, le fair use, (usage loyal, ou usage raisonnable, ou usage acceptable) est un ensemble de règles de droit, d’origine législative et jurisprudentielle, qui apportent des limitations et des exceptions aux droits exclusifs de l’auteur sur son œuvre (copyright). Il essaie de prendre en compte à la fois les intérêts des bénéficiaires des copy – rights et l’intérêt public, pour la distribution de travaux créatifs, en autorisant certains usages qui seraient, autrement, considérés comme illégaux. Des dispositions similaires existent également dans beaucoup d’autres pays.

Les critères actuels du fair use aux États-Unis sont énoncés au titre 17 du code des États-Unis, section 107 (limitations des droits exclusifs : usage loyal (fair use) : « Nonobstant les dispositions des sections 106 et 106A, l’usage loyal d’une oeuvre protégée, y compris des usages tels la reproduction par copie, l’enregistrement audiovisuel ou quelque autre moyen prévu par cette section, à des fins telles que la critique, le commentaire, l’information journalistique, l’enseignement (y compris des copies multiples à destination d’une classe), les études universitaires et la recherche, ne constitue pas une violation des droits d’auteur. Pour déterminer si l’usage particulier qui serait fait d’une œuvre constitue un usage loyal, les éléments à considérer comprendront : l’objectif et la nature de l’usage, notamment s’il est de nature commerciale ou éducative et sans but lucratif ; la nature de l’œuvre protégée ; la quantité et l’importance de la partie utilisée en rapport à l’ensemble de l’œuvre protégée ; les conséquences de cet usage sur le marché potentiel ou sur la valeur de l’œuvre protégée. Le fait qu’une œuvre ne soit pas publiée ne constitue pas en soi un obstacle à ce que son usage soit loyal s’il apparaît tel au vu de l’ensemble des critères précédents ». « L’originalité du fair use par rapport aux doctrines comparables est l’absence de limites précises aux droits ouverts : alors que les autres pays définissent assez précisément ce qui est autorisé, le droit des États-Unis donne seulement des critères (factors) que les tribunaux doivent apprécier et pondérer pour décider si un usage est effectivement loyal. Par conséquent, le fair use tend à couvrir plus d’usages que n’en autorisent les autres systèmes, mais au prix d’un plus grand risque juridique. »

De la propriété à l’accès ?

Lors des Rencontres de l’Orme 2008, Frédérique Muscinési, médiatrice culturelle, a risqué le débat : « Aujourd’hui, l’intermédiaire ne peut plus constituer l’agent de la culture établie, ni du discours officiel. Il doit réfléchir, à l’heure des nouvelles technologies et de la substitution progressive de la propriété par la notion d’accès, à son rôle dans le cadre d’une probable et enfin réalisable démocratisation de la culture, non de sa consommation que son propre rôle antérieur rendait impossible ou invalidait, mais de sa création. » Elle a rappelé que « l’imitation et la modification sont à la base de la création entendue comme mémoire et transmission, puisqu’elles sont le moteur de l’apprentissage, processus ou objet même de la création ».

En conséquence, la propriété intellectuelle appliquée aux objets ou aux expériences artistiques, a passé d’être un appui aux auteurs à celui des industries culturelles qui, restreignant l’accès à l’objet de création, restreignent par là même ses possibilités. Culture et éducation cheminent ensemble, c’est bien connu…

Notes

[1] Crédit photo : Mr. Theklan (Creative Commons By-Sa)

[2] Les manuels scolaires : histoire et actualité, Alain Choppin, INRP, Hachette 1992

[3] « L’édition scolaire au temps du numérique », Jean-Pierre Archambault, Médialog n° 41

[4] Les turbulences de l’édition scolaire, Jean-Pierre Archambault, colloque SIF « Les institutions éducatives face au numérique », organisé par la Maison des Sciences de l’Homme de Paris-Nord, Paris les 12 et 13 décembre 2005

[5] Sur le blog du CNS (Canal numérique des savoirs), Laurent Catach (dictionnaires Le Robert) propose à ses collègues des voies de sortie des turbulences, leur demandant de se montrer optimistes : «  Éditeurs, ayez confiance, le web est une formidable opportunité, comme sans doute il n’en arrive que tous les quelques siècles… ». Il s’emploie à les rassurer : « Il est en effet logique et inévitable que plus la quantité d’informations augmente plus on a besoin de la hiérarchiser, de la filtrer, de la commenter, de l’animer et de la fédérer. Comment par exemple feront les élèves pour se repérer et trouver une juste information dans les 15 millions de livres numérisés de Google ? ». Il voit « se profiler un véritable eldorado éditorial ! ». Il met les points sur les i : « Nous avons à notre disposition un matériau informationnel extraordinaire (toute la richesse du web) à mettre en forme et à mettre en scène. Et l’information et sa mise en scène, n’est-ce pas là très précisément notre métier ?… La question n’est donc pas de savoir si les éditeurs scolaires ont un rôle à jouer sur le web : c’est une évidence. Et c’est même leur responsabilité vis-à-vis des jeunes générations de ne pas laisser les élèves se débrouiller tous seuls avec Internet. La seule et unique question est de savoir comment ils seront rémunérés. »

[6] Squeak – Hilaire Fernandes, « Squeak, un outil pour modéliser », EpiNet n° 86

[7] Abuledu

[8] Voir Wikipédia, notamment un « Wikipédia éducatif » et « Wikipédia : la rejeter ou la domestiquer », Éric Bruillard, Médialog n° 61

[9] Pour l’éducation voir « Les logiciels libres dans le système éducatif », Jean-Pierre Archambault et « Favoriser l’essor du libre à l’École », Jean-Pierre Archambault, Médialog n° 66

[10] Voir le Livre blanc sur les modèles économiques du libre, publié par l’April et Rapport du CSPLA (Conseil supérieur de la propriété littéraire et artistique) sur la diffusion ouverte des oeuvres de l’esprit

[11] Voir note 8, le Livre blanc sur les modèles économiques du libre, publié par l’April

[12] « Naissance d’un droit d’auteur en kit ? », Jean-Pierre Archambault, Médialog n° 55 et « Les licences Creative Commons dans le paysage éducatif de l’édition… rêve ou réalité ? », réflexions de Michèle Drechsler

[13] Arsmusicae Site d’information sur l’exception pédagogique pour l’enseignement et la recherche




L’informatique doit-elle rester un simple outil à l’école ?

Laihiu - CC byIl y a un réel débat actuellement qui traverse l’Éducation Nationale autour de la « culture informatique » à transmettre à nos enfants. Pour les uns, on donne une culture à travers l’utilisation des outils (savoir se servir de la messagerie, du traitement de texte…) et c’est ce qui est proposé actuellement, notamment avec le B2i. Pour les autres cela ne suffit pas et il faut un enseignement en tant que tel, comme il y a un cours de français ou de mathématiques. J’en suis,(même si après il convient de voir avec précision ce que l’on met dedans).

Jean-Pierre Archambault, que le monde du libre éducatif français connait bien, fait clairement partie lui aussi de la deuxième catégorie comme en témoignent les deux articles que nous avons choisi de reproduire ci-dessous[1].

Rappelons que Xavier Darcos a dans l’intervalle finalement reporté sa réforme du lycée. Le module informatique dont il est question dans ces deux articles se trouve donc lui aussi suspendu aux futures décisions.

L’acquisition par les lycéens des fondements de la science informatique…

URL d’origine : Médialog (décembre 2008)

Le Ministre de l’Éducation nationale, Xavier Darcos, a annoncé le 21 octobre dernier, lors d’un point d’étape sur la réforme du lycée, qu’un module « Informatique et société numérique » sera proposé en classe de seconde à la rentrée 2009. Nous nous félicitons de cette initiative qui correspond à un besoin profond de la société du XXIème siècle dans laquelle l’ordinateur, l’informatique et le numérique sont omniprésents.

L’informatique irrigue la vie quotidienne de tout un chacun. Elle modifie progressivement, et de manière irréversible, notre manière de poser et de résoudre les questions dans quasiment toutes les sciences expérimentales ou théoriques qui ne peuvent se concevoir aujourd’hui sans ordinateurs et réseaux. Juristes, architectes, écrivains, musiciens, stylistes, photographes, médecins, pour ne citer qu’eux, sont tout aussi concernés.

L’informatique s’invite également au Parlement. Ainsi, on s’en souvient, en 2006, la transposition de la directive européenne sur les Droits d’auteur et les droits voisins dans la société de l’information (DADVSI), suscitait des débats complexes dans lesquels exercice de la citoyenneté rimait avec technicité et culture scientifique. S’il fut abondamment question de copie privée, de propriété intellectuelle, ce fut sur fond d’interopérabilité, de DRM (Digital rights management), de code source… La question est posée des représentations mentales, des connaissances incontournables qui permettent d’être un citoyen à part entière.

Par ailleurs, il y a de plus en plus d’informatique dans la société, mais les entreprises ont du mal à recruter les informaticiens qualifiés dont elles ont besoin, et cela vaut pour l’ensemble des pays développés. Le Syntec, la chambre syndicale des sociétés de service en informatique et des éditeurs de logiciels, se plaint du manque d’attractivité chez les jeunes pour les métiers de l’informatique.

Il y a donc pour le système éducatif, au nom de ses missions traditionnelles, un enjeu fort de culture générale scientifique et technique qui passe par une discipline scolaire en tant que telle, en complémentarité avec l’informatique outil pédagogique, de plus en plus présente dans les autres disciplines.

Répondant à une commande du Recteur Jean-Paul de Gaudemar, qui pilote la mission sur la réforme du lycée, le groupe « Informatique et TIC » de l’ASTI (Fédération des Associations françaises des Sciences et Technologies de l’Information) et l’EPI (Enseignement public et informatique) ont élaboré, pour ce module « Informatique et société numérique », une proposition de programme qui se veut contribution constructive. Elle comprend de l’algorithmique et de la programmation, la représentation des informations, l’architecture des ordinateurs et des réseaux, et vise également à ce que les élèves aient une idée plus globale de ce qu’est l’informatique.

Un chantier institutionnel majeur s’ouvre qui vise l’acquisition par les lycéens des fondements de la science informatique au service de leur compréhension et de leur action dans la société numérique : une ardente obligation !

Maurice Nivat
membre correspondant de l’Académie des Sciences
Jean-Pierre Archambault
président de l’EPI

Culture informatique et culture numérique

URL d’origine : EPI (décembre 2008)


L’année 2008 se termine qui a vu l’EPI prendre de nombreuses et diverses initiatives en faveur d’un enseignement disciplinaire de l’informatique au lycée. Nous pouvons donc exprimer notre satisfaction de la création à la rentrée 2009 d’un module « informatique et société numérique » en classe de seconde. Cette décision, annoncée le 21 octobre dernier par le Ministre de l’Éducation nationale, Xavier Darcos, correspond aux exigences de la société dans laquelle nous vivons. Elle s’inscrit dans une vision globale de l’informatique éducative. L’enjeu est clair, conforme aux missions traditionnelles de l’École : former l’homme, le travailleur et le citoyen de la société numérique.

Sur le plan économique, le défi est majeur. Lors de la table ronde organisée par notre association à l’occasion du salon Educatice 2008, Gérard Berry a souligné la différence essentielle qui existe entre la « consommation » et la « création » d’informatique. Il a rappelé que, dans le monde, plus de 30 % de la R&D était consacré à l’informatique (la France est en deçà). Il a posé la question de savoir si notre pays se destinait à utiliser des produits conçus et réalisés par d’autres. Dans cette même table ronde, Gilles Dowek a rappelé que les sciences physiques étaient devenues une matière scolaire car elles sous-tendaient les réalisations de la société industrielle (mécanique, électricité…). Or le monde moderne « se numérise » à grands pas. Ce qui a valu, et vaut toujours pour la physique, vaut aujourd’hui pour l’informatique (et ses fondamentaux : algorithmique, programmation, théorie de l’information, architecture des matériels et réseaux). Lors du récent Forum Mondial du libre, Roberto Di Cosmo indiquait qu’« écrire un programme » et « bien écrire un programme » étaient deux choses fort différentes ! Or l’on sait que le lycée est à la fois un moment de la vie et un lieu où naissent bien des vocations…

Il est bien connu que nous avons toujours considéré qu’un enseignement de l’informatique en tant que tel était indispensable et complémentaire de l’utilisation de l’informatique dans les autres disciplines. L’informatique est objet d’enseignement et outil pédagogique, mais aussi facteur d’évolution des autres disciplines, dans leur « essence », leurs objets et leurs méthodes, comme dans les enseignements techniques et professionnels ou dans les sciences expérimentales avec la simulation. L’informatique est aussi bien sûr outil de travail personnel et collectif de la communauté éducative dans son ensemble, par exemple avec les ENT. Ces différents statuts loin de s’opposer se renforcent mutuellement.

La culture informatique, scientifique et technique, est une composante nécessaire de la culture numérique.

Le citoyen éclairé participe aux débats de société sur le nucléaire ou les OGM. Pour cela il dispose d’un appareillage conceptuel que les enseignements des sciences de la vie et de la terre et des sciences physiques lui ont donné. Dans la société numérique, il doit pouvoir intervenir pleinement dans des problématiques comme les « droits d’auteurs et droits voisins dans la société de l’information » ou droits et libertés. Ce sont des domaines compliqués (interopérabilité, DRM, code source, adresse IP…), inaccessibles si l’on ne s’est pas approprié le noyau de connaissances stables et transmissibles qui sous-tendent la société numérique, si l’on ne s’en ait pas fabriqué une représentation mentale opérationnelle. Cela vaut également pour les usages des objets du quotidien qui intègrent de plus en plus des ordinateurs et de l’information numérique.

Répétons-le, en matière de formation solide et durable, la simple utilisation « spontanée » d’outils ne suffit pas. Il ne faut pas faire un sort particulier à l’informatique. Maîtriser sa langue maternelle, acquérir la culture mathématique nécessaire sont des processus longs où les élèves apprennent des notions que l’humanité a mis des siècles à élaborer. Les notions de lettre, mot ou nombre sont des abstractions difficiles pour un jeune enfant. Et pourtant… La culture scolaire au lycée est aussi faite de probabilités, de fonctions… et d’algorithmique, programmation, information, réseaux. Et, bien entendu, faut-il le répéter, la pédagogie impose de s’appuyer sur l’environnement des élèves, leurs pratiques du numérique, pour mieux les dépasser.

L’on entend parfois dire que, l’informatique ayant beaucoup changé en vingt ans, des concepts enseignés il y a vingt ans n’auraient plus cours aujourd’hui. Bizarre. Le monde bouge plus vite que les fondamentaux de la connaissance scolaire. C’est la nécessaire loi du genre. Le théorème de Pythagore est vieux de 25 siècles, ce qui n’empêche pas les collégiens d’encore l’étudier de nos jours ! Socrate et Platon n’ont pas été rendus caducs par Descartes et Kant. Molière est toujours très actuel car universel et « éternel ». La programmation est partie intégrante de l’informatique, moyen irremplaçable pour comprendre l’intelligence de la science informatique et outil pertinent pour les autres disciplines. Si elle s’enrichit en permanence, pour autant, du point de vue de la culture scolaire en classe de seconde, elle n’a pas vieilli.

L’EPI a été auditionnée par le groupe d’experts ministériel pour l’élaboration du module « Informatique et société numérique » pour la classe de seconde. La rencontre a donné lieu à des échanges riches et approfondis. L’EPI, association d’enseignants, se propose d’« accompagner », à sa manière et avec sa spécificité, la mise en œuvre du module de seconde. Avec l’objectif qu’il soit une « belle » réussite pérenne.

En attendant, bonnes fêtes de fin d’année à toutes et à tous.

Jean-Pierre Archambault
Président de l’EPI

Notes

[1] Crédit photo : Laihiu (Creative Commons By)




Informatique à l’école : Tout ne va pas très bien Madame la Marquise

La France est-elle numériquement sous-éduquée ? Et si oui doit-on faire quelque chose pour modifier la donne en particulier à l’école ? Ce n’est pas tout à fait ainsi que Jean-Pierre Archambault[1] et Maurice Nivat exposent la problématique dans l’article que nous reproduisons ci-dessous mais cela y ressemble un peu.

Que l’on soit ou non d’accord avec leur exposé des faits et leurs propositions, cela mérite selon nous au moins un débat. Or, de la même manière que la présence de Microsoft à l’école n’est pas discutée, la présence d’un éventuelle discipline informatique à part entière n’est pas à l’ordre du jour (quand bien même uniquement en lycée et uniquement dans les sections scientifiques comme il est pragmatiquement suggéré dans un premier temps par nos auteurs).

Et si ce n’est pas à l’ordre du jour c’est que notre vénérable institution scolaire a fait le choix de l’informatique en tant qu’outil sur l’informatique en tant qu’objet d’enseignement en arguant que tout va très bien Madame la Marquise puisqu’existe le Brevet Informatique et Internet (B2i) décliné et distillé de l’école élémentaire jusqu’au lycée en passant par le collège.

Le problème c’est qu’on se retrouve en face d’un double échec. Le premier échec c’est que l’on passe alors à côté d’une certaine culture informatique tout en ne formant pas les développeurs de demain dont nous aurons nécessairement besoin (sauf à se mettre à tout externaliser en Asie ou ailleurs). Développeurs en général mais aussi, ça coule de source, développeurs de logiciels libres en particulier (dont on ne s’étonnera pas de trouver trace dans leur projet de programme pour les sections scientifiques des lycées).

Le second échec, et ceci n’engage que moi et ma petite expérience, c’est que le B2i est globalement une mascarade qui ne veut pas dire son nom. Des enseignants juqu’aux directions académique en passant par les chefs d’établissement, tout le monde a intérêt à dire que le B2i fonctionne dans une logique de remontée hypocrite et enjolivée des informations dont l’Éducation Nationale a le secret. Mais dans la réalité, j’en mets ma main à couper, on est loin des objectifs et on se retrouve le plus souvent avec une parodie de B2i, les élèves de plus en plus sensibilisés hors de l’école commencent d’ailleurs à s’en rendre bien compte. Vous aurez beau me sortir la dizaine d’établissements où les B2i est une réelle réussite collective (exemples toujours mis en exergue par l’institution), vous ne m’ôterez pas de l’idée que depuis le temps qu’on parle du B2i, c’est-à-dire 8 ans, ça ne marche pas bien voire pas du tout (sauf parfois en collège là où les enseignants de technologie organisent quasiment en solitaire le B2i de par la proximité des compétences à valider avec leur propres programmes d’enseignement mais alors ça ne valait pas la peine dépenser autant d’énergie pour créer le B2i). Ne reste donc-t-il plus que les blogs de profs d’en bas pour dire que le roi B2i est nu ?

Il n’est pas question de nier les problèmes liés par exemple aux emplois du temps souvent surchargés des élèves que la création d’une nouvelle discipline ne risque pas d’améliorer. Simplement il faut savoir ce que l’on veut. D’accord pour que les hommes politiques nous fassent de beaux discours sur la fracture numérique[2], les nouvelles générations à l’ère du numérique, etc. Mais alors il faudrait joindre réellement les actes à la parole en cessant quelque peu de se voiler la face.

Ulaanaatar Mongolia - OLPC - CC-By

Pour un enseignement de l’informatique et des TIC

Maurice Nivat et Jean-Pierre Archambault
1er septembre 2008t
URL d’origine sur le site de l’EPI

Dans sa leçon inaugurale au Collège de France, Gérard Berry indiquait que « tout le monde le voit et le dit, notre civilisation est en train de devenir numérique », mais que « les fondements de la locution "monde numérique" restent largement ignorés du public ». Et Il ajoutait que « ce n’est pas étonnant car l’information synthétique est encore pauvre dans ce domaine qui ne repose pas sur des bases enseignées classiquement ».[3]

L’informatique est partout, dans la vie de tous les jours, au domicile de chacun, avec l’ordinateur personnel et l’accès à Internet ; dans l’entreprise où des systèmes de contrôle informatisés font fonctionner les processus industriels. Ses métiers, et ceux des télécommunications, occupent une place importante dans les services. On ne compte plus les objets matériels qui sont remplis de puces électroniques.

C’est l’informatique, pour ne prendre que ces exemples, qui a récemment fait faire de très spectaculaires progrès à l’imagerie médicale et qui permet ceux de la génétique. Elle modifie progressivement, et de manière irréversible, notre manière de poser et de résoudre les questions dans quasiment toutes les sciences expérimentales ou théoriques qui ne peuvent se concevoir aujourd’hui sans ordinateurs et réseaux. Elle change la manière dont nous voyons le monde et dont nous nous voyons nous-mêmes.

L’informatique s’invite aussi au Parlement, ainsi on s’en souvient, en 2006, pour la transposition de la directive européenne sur les Droits d’auteur et les droits voisins dans la société de l’information (DADVSI), suscitant des débats complexes où exercice de la citoyenneté rimait avec technicité et culture scientifique. En effet, s’il fut abondamment question de copie privée, de propriété intellectuelle… ce fut sur fond d’interopérabilité, de DRM, de code source.

Il y a de plus en plus d’informatique dans la société, mais les entreprises ont du mal à recruter les informaticiens qualifiés dont elles ont besoin, et cela vaut pour l’ensemble des pays développés. Le Syntec se plaint du manque d’attractivité chez les jeunes pour les métiers de l’informatique. Gilles Dowek, professeur d’informatique à l’École Polytechnique, fait le constat du faible niveau en informatique des ingénieurs généralistes en France, et de « nos étudiants, comparés à leurs camarades indiens et chinois, bien entendu, mais aussi européens »[4]. Dans leur rapport sur l’économie de l’immatériel, Maurice Lévy et Jean-Pierre Jouyet citent, parmi les obstacles qui freinent l’adaptation de notre pays à cette économie nouvelle et constituent un handicap majeur pour l’innovation, « notre manière de penser », invitant à changer un certain nombre de « nos réflexes collectifs fondés sur une économie essentiellement industrielle ». Ils insistent sur le fait que, dans l’économie de l’immatériel, « l’incapacité à maîtriser les TIC constituera une nouvelle forme d’illettrisme, aussi dommageable que le fait de ne pas savoir lire et écrire ». Nous sommes manifestement en présence d’un enjeu de culture générale, correspondant aux missions traditionnelles de l’École, former « l’homme, le citoyen et le travailleur ». Il faut donc se tourner résolument vers le système éducatif.

Si un consensus s’est dégagé au fil des ans sur la nécessité de donner une culture informatique aux élèves, des divergences sérieuses subsistent quant aux modalités pour y parvenir. Pas de problème pour considérer que l’ordinateur est un outil pédagogique aux vertus et potentialités reconnues, auquel il faut recourir avec pertinence, et un outil de travail personnel et collectif de la communauté scolaire. Ou pour intégrer les évolutions engendrées dans les disciplines par l’informatique qui modifie pour une part leur « essence », à savoir leurs objets et leurs méthodes.

En revanche, à aucun moment les élèves ne rencontrent dans leur formation générale une approche conceptuelle et disciplinaire de l’informatique, sous la forme d’un enseignement en tant que tel. Les conséquences en sont pour le moins fort dommageables.

Il y a eu dans les années quatre-vingts une option dans les lycées. Elle a été supprimée par deux fois pour de mauvaises raisons. En effet, deux approches pédagogiques s’affrontent. Pour les uns, les apprentissages doivent se faire exclusivement à travers les utilisations de l’outil dans les disciplines existantes. Une discipline informatique serait inutile. Ainsi, point besoin de savoir quoi que ce soit, ou peu s’en faut, pour se servir de logiciels. Étrange propos. Depuis que l’« homo faber » fabrique des outils et s’en sert, une bonne intelligence de l’outil (matériel ou conceptuel) est considérée comme nécessaire pour une bonne utilisation, efficace, précise et raisonnée : plus on en sait mieux cela vaut, partout. Il n’y aurait que l’informatique qui échapperait à cette règle et où l’ignorance serait un avantage ! Autre argument avancé, celui selon lequel on ne va quand même pas faire de tous les enfants des informaticiens ! Comme si l’enseignement des mathématiques ou du français, dont tout le monde admet la nécessité, avait pour but de faire de tous les élèves des mathématiciens ou des écrivains.

Pour les autres, dont nous sommes, lorsqu’un champ de la connaissance est partout, il doit être quelque part en particulier dans la culture générale scolaire, pour tous les élèves, sous la forme d’une discipline, avec ses professeurs, ses contenus, ses horaires. C’est la solution la plus efficace que l’on ait trouvée, la plus rationnelle, et la plus économique. C’est le cas par exemple des mathématiques, outil conceptuel au service de l’ensemble des disciplines, omniprésentes dans la société et, à ce titre, objet d’enseignement pour elles-mêmes. Il doit en aller à l’identique pour l’informatique. La culture scolaire est ainsi faite que des disciplines apparaissent en fonction de nouveaux savoirs et des besoins de la société, d’autres disparaissent, toutes évoluent.

« Objet » et « outil » d’enseignement, loin de s’opposer, sont complémentaires et se renforcent mutuellement. L’expérience montre que l’approche exclusive par l’utilisation de l’outil ne fonctionne pas, aussi bien dans l’enseignement scolaire que dans les classes préparatoires aux grandes écoles. Or, malheureusement, le B2i (Brevet informatique et internet) relève de cette démarche : les acquisitions doivent se faire dans des contributions multiples et partielles des disciplines, à partir de leurs points de vue, sans le fil conducteur de la cohérence didactique des outils et notions informatiques. Passe encore à l’école primaire où, et c’est fondamental, il y a un enseignant unique qui maîtrise donc ses progressions pédagogiques et leurs cohérences, l’organisation du temps scolaire et qui se coordonne facilement avec lui-même ! Mais ce n’est pas le cas au collège ou au lycée : là résident pour une bonne part les difficultés constatées de mise en oeuvre du B2i. On conviendra effectivement du caractère ardu de la tâche au plan de l’organisation concrète. Ainsi, un rapport de l’IGEN soulignait-il que « si différentes circulaires précisaient les compétences devant être validées, elles laissaient néanmoins dans l’ombre de l’autonomie des établissements les modalités concrètes de mise en oeuvre »[5]. Pour se faire une idée de la difficulté de l’exercice, il suffit d’imaginer l’apprentissage du passé composé et du subjonctif, du pluriel et de la subordonnée relative qui serait confié à d’autres disciplines que le français, au gré de leurs besoins propres (de leur « bon vouloir »), pour la simple raison que l’enseignement s’y fait en français.

De plus, comment organiser des apprentissages progressifs sur la durée lorsque les compétences recherchées sont formulées de manière très générale (par exemple : « maîtriser les fonctions de base » ou « effectuer une recherche simple »), éventuellement répétitives à l’identique d’un cycle à l’autre, et que les contenus scientifiques, savoirs et savoir-faire précis permettant de les acquérir, ne sont pas explicités. Sans oublier des conditions matérielles, accès, maintenance, gestion des parcs de machines… ne répondant pas forcément aux besoins. S’ajoute une formation des enseignants insuffisante. On n’envisage pas de faire enseigner la littérature française, ou les sciences de la vie, ou l’histoire par quelqu’un dont les connaissances ne dépasseraient pas celles qu’on peut acquérir en quelques semaines ou mois de stage. C’est pourtant le cas en ce qui concerne l’informatique et les technologies de l’information et de la communication. Certes, cela rend d’autant plus méritoires les efforts de tous les professeurs d’autres disciplines qui, en plus de leur matière principale, enseignent de l’informatique, souvent avec enthousiasme. Mais ils ne sont qu’une minorité. La boucle est bouclée : on retombe sur l’absence d’une discipline scientifique et technique avec des connaissances spécifiques et des méthodes identifiées et nommées.

L’association EPI (Enseignement public et informatique) a créé au sein de l’ASTI (fédération des Associations françaises des Sciences et Technologies de l’Information) un groupe de travail, de réflexion et d’action, sur l’enseignement de l’informatique et des TIC[6]. Ce groupe a élaboré un projet de programme pour les sections scientifiques des lycées[7]. Selon l’EPI et l’ASTI, qui ont notamment été reçues à l’Élysée, à Matignon et au Ministère de l’Éducation nationale, les réponses apportées par le système éducatif en matière de culture générale informatique de l’« honnête homme du XXIe siècle » ne sont pas à la hauteur des enjeux et des exigences de la société de l’immatériel. Enseigner l’informatique est une nécessité, par ailleurs de nature à lutter contre la crise des vocations scientifiques. Il serait temps qu’en particulier cesse ce paradoxe qui voit les futurs scientifiques, les générations à venir d’ingénieurs de la société de la connaissance, ne pas rencontrer dans leur scolarité l’informatique en tant que telle : théorie de l’information, algorithmique, programmation, réseaux… et autres notions et concepts, tous indispensables à une culture informatique et TIC permettant des usages raisonnés.

Maurice Nivat
Professeur émérite à l’Université Paris 7
Membre correspondant de l’Académie des Sciences

Jean-Pierre Archambault
Professeur agrégé de mathématiques
Président de l’association Enseignement Public et Informatique (EPI)

Notes

[1] Á plus d’un an d’intervalle, c’est le deuxième article du Framablog sur le sujet. Comme quoi Jean-Pierre Archambault est persévérant et nous aussi !

[2] Crédit photo : Ulaanbaatar, Mongolia par OLPC sous licence Creative Commons BY.

[3] http://www.college-de-france.fr/default/EN/all/inn_tec/p1200929441219.htm

[4] « Quelle informatique enseigner au lycée ? », intervention à l’Académie des Sciences du 15 mars 2005 http://www.lix.polytechnique.fr/~dowek/lycee.html

[5] http://lesrapports.ladocumentationfrancaise.fr/BRP/074000125/0000.pdf en page 17

[6] http://www.epi.asso.fr/blocnote/blocsom.htm

[7] http://asti.ibisc.univ-evry.fr/groupe-itic/Programme-04-03-2008.pdf