Internet et Google vont-ils finir par nous abrutir ?

Striatic - CC byVoici la traduction d’un article assez passionnant qui a connu un bel impact dans la sphère anglophone au moment de sa mise en ligne cet été. Son titre choc Is Google Making Us Stupid? est un peu trompeur car il s’agit bien moins de charger l’emblématique Google que de s’interroger sur les transformations profondes induites par internet et les nouvelles technologies, transformations qui peuvent aller jusqu’à modifier nos perceptions, nos modes de pensée, voire même notre cerveau.

Prenons le Framablog par exemple. Il possède, merci pour lui, d’assez bonnes statistiques d’audience globales, mais lorsque l’on se penche sur la moyenne du temps passé par page, c’est la grosse déprime car cela ne dépasse que trop rarement les deux minutes, intervalle qui ne vous permet généralement pas d’y parcourir les articles du début à la fin. En décidant d’en achever la lecture bien avant la conclusion, peut-on affirmer que plus de la moitié des visiteurs ne les trouvent pas intéressants ? C’est fort probable.

Mais il y a peut-être aussi une autre explication. Les articles de ce blog sont souvent relativement « longs » et par la-même nécessitent de trouver un minimum de temps disponible et de concentration. Ils nous demandent de fixer notre attention et d’interrompre notre surf internet en coupant momentanément le contact avec le flot continu d’informations dont nous sommes abreuvés.

Allons plus loin avec l’objet livre (que nous défendons d’ailleurs avec force et modestie sur Framabook). Lit-on moins de livres au fur et à mesure qu’Internet prend de plus en plus de place dans nos vies ? Et surtout les lit-on avec les mêmes facilités qu’auparavant ? Et qu’en est-il de la jeune génération ?[1]

Nicholas Carr, partant du constat qu’il n’a plus la même patience que par le passé vis-à-vis de la lecture « calme et profonde », revisite quelques dates marquantes de l’Histoire (le passage de l’oral à l’écrit, l’apparition de l’imprimerie, de la machine à écrire, du taylorisme…) pour nous inviter à une réflexion autour de l’influence des technologies et leurs systèmes sur rien moins que notre manière de penser et de percevoir le monde.

Vous vous sentez vous aussi atteint par le symptôme ? Ne vous laissez pas abattre ! Oubliez l’espace d’un instant SMS, MSN, Facebook, Twitter… et sérendipité, en réussissant l’exploit de parcourir ce billet jusqu’à son terme 😉

Est-ce que Google nous rend idiots ?

Is Google Making Us Stupid?

Nicholas Carr – juin 2008 – The Atlantic
(Traduction Framalang : Penguin, Olivier et Don Rico)

« Dave, arrête. Arrête, s’il te plaît. Arrête Dave. Vas-tu t’arrêter, Dave ? » Ainsi le super-ordinateur HAL suppliait l’implacable astronaute Dave Bowman dans une scène célèbre et singulièrement poignante à la fin du film de Stanley Kubrick 2001, l’odyssée de l’espace. Bowman, qui avait failli être envoyé à la mort, au fin fond de l’espace, par la machine détraquée, est en train de déconnecter calmement et froidement les circuits mémoires qui contrôlent son « cerveau » électronique. « Dave, mon esprit est en train de disparaître », dit HAL, désespérément. « Je le sens. Je le sens. »

Moi aussi, je le sens. Ces dernières années, j’ai eu la désagréable impression que quelqu’un, ou quelque chose, bricolait mon cerveau, en reconnectait les circuits neuronaux, reprogrammait ma mémoire. Mon esprit ne disparaît pas, je n’irai pas jusque là, mais il est en train de changer. Je ne pense plus de la même façon qu’avant. C’est quand je lis que ça devient le plus flagrant. Auparavant, me plonger dans un livre ou dans un long article ne me posait aucun problème. Mon esprit était happé par la narration ou par la construction de l’argumentation, et je passais des heures à me laisser porter par de longs morceaux de prose. Ce n’est plus que rarement le cas. Désormais, ma concentration commence à s’effilocher au bout de deux ou trois pages. Je m’agite, je perds le fil, je cherche autre chose à faire. J’ai l’impression d’être toujours en train de forcer mon cerveau rétif à revenir au texte. La lecture profonde, qui était auparavant naturelle, est devenue une lutte.

Je crois savoir ce qui se passe. Cela fait maintenant plus de dix ans que je passe énormément de temps sur la toile, à faire des recherches, à surfer et même parfois à apporter ma pierre aux immenses bases de données d’Internet. En tant qu’écrivain, j’ai reçu le Web comme une bénédiction. Les recherches, autrefois synonymes de journées entières au milieu des livres et magazines des bibliothèques, s’effectuent désormais en un instant. Quelques recherches sur Google, quelques clics de lien en lien et j’obtiens le fait révélateur ou la citation piquante que j’espérais. Même lorsque je ne travaille pas, il y a de grandes chances que je sois en pleine exploration du dédale rempli d’informations qu’est le Web ou en train de lire ou d’écrire des e-mails, de parcourir les titres de l’actualité et les derniers billets de mes blogs favoris, de regarder des vidéos et d’écouter des podcasts ou simplement de vagabonder d’un lien à un autre, puis à un autre encore. (À la différence des notes de bas de page, auxquelles on les apparente parfois, les liens hypertextes ne se contentent pas de faire référence à d’autres ouvrages ; ils vous attirent inexorablement vers ces nouveaux contenus.)

Pour moi, comme pour d’autres, le Net est devenu un media universel, le tuyau d’où provient la plupart des informations qui passent par mes yeux et mes oreilles. Les avantages sont nombreux d’avoir un accès immédiat à un magasin d’information d’une telle richesse, et ces avantages ont été largement décrits et applaudis comme il se doit. « Le souvenir parfait de la mémoire du silicium », a écrit Clive Thompson de Wired, “peut être une fantastique aubaine pour la réflexion.” Mais cette aubaine a un prix. Comme le théoricien des média Marshall McLuhan le faisait remarquer dans les années 60, les média ne sont pas uniquement un canal passif d’information. Ils fournissent les bases de la réflexion, mais ils modèlent également le processus de la pensée. Et il semble que le Net érode ma capacité de concentration et de réflexion. Mon esprit attend désormais les informations de la façon dont le Net les distribue : comme un flux de particules s’écoulant rapidement. Auparavant, j’étais un plongeur dans une mer de mots. Désormais, je fends la surface comme un pilote de jet-ski.

Je ne suis pas le seul. Lorsque j’évoque mes problèmes de lecture avec des amis et des connaissances, amateurs de littérature pour la plupart, ils me disent vivre la même expérience. Plus ils utilisent le Web, plus ils doivent se battre pour rester concentrés sur de longues pages d’écriture. Certains des bloggeurs que je lis ont également commencé à mentionner ce phénomène. Scott Karp, qui tient un blog sur les média en ligne, a récemment confessé qu’il avait complètement arrêté de lire des livres. « J’étais spécialisé en littérature à l’université et je passais mon temps à lire des livres », écrit-il. « Que s’est-il passé ? » Il essaie de deviner la réponse : « Peut-être que je ne lis plus que sur Internet, non pas parce que ma façon de lire a changé (c’est à dire parce que je rechercherais la facilité), mais plutôt parce que ma façon de PENSER a changé ? »

Bruce Friedman, qui bloggue régulièrement sur l’utilisation des ordinateurs en médecine, décrit également la façon dont Internet a transformé ses habitudes intellectuelles. « J’ai désormais perdu presque totalement la capacité de lire et d’absorber un long article, qu’il soit sur le Web ou imprimé », écrivait-il plus tôt cette année. Friedman, un pathologiste qui a longtemps été professeur l’école à de médecine du Michigan, a développé son commentaire lors d’une conversation téléphonique avec moi. Ses pensées, dit-il, ont acquis un style « staccato », à l’image de la façon dont il scanne rapidement de petits passages de texte provenant de multiples sources en ligne. « Je ne peux plus lire Guerre et Paix », admet-il. « J’ai perdu la capacité de le faire. Même un billet de blog de plus de trois ou quatre paragraphes est trop long pour que je l’absorbe. Je l’effleure à peine. »

Les anecdotes par elles-mêmes ne prouvent pas grand chose. Et nous attendons encore des expériences neurologiques et psychologiques sur le long terme, qui nous fourniraient une image définitive sur la façon dont Internet affecte nos capacités cognitives. Mais une étude publiée récemment sur les habitudes de recherches en ligne, conduite par des spécialistes de l’université de Londres, suggère que nous assistons peut-être à de profonds changements de notre façon de lire et de penser. Dans le cadre de ce programme de recherche de cinq ans, ils ont examiné des traces informatiques renseignant sur le comportement des visiteurs de deux sites populaires de recherche, l’un exploité par la bibliothèque britannique et l’autre par un consortium éducatif anglais, qui fournissent un accès à des articles de journaux, des livres électroniques et d’autres sources d’informations écrites. Ils ont découvert que les personnes utilisant ces sites présentaient « une forme d’activité d’écrémage », sautant d’une source à une autre et revenant rarement à une source qu’ils avaient déjà visitée. En règle générale, ils ne lisent pas plus d’une ou deux pages d’un article ou d’un livre avant de « bondir » vers un autre site. Parfois, ils sauvegardent un article long, mais il n’y a aucune preuve qu’ils y reviendront jamais et le liront réellement. Les auteurs de l’étude rapportent ceci :

Il est évident que les utilisateurs ne lisent pas en ligne dans le sens traditionnel. En effet, des signes montrent que de nouvelles formes de « lecture » apparaissent lorsque les utilisateurs « super-naviguent » horizontalement de par les titres, les contenus des pages et les résumés pour parvenir à des résultats rapides. Il semblerait presque qu’ils vont en ligne pour éviter de lire de manière traditionnelle.

Grâce à l’omniprésence du texte sur Internet, sans même parler de la popularité des textos sur les téléphones portables, nous lisons peut-être davantage aujourd’hui que dans les années 70 ou 80, lorsque la télévision était le média de choix. Mais il s’agit d’une façon différente de lire, qui cache une façon différente de penser, peut-être même un nouveau sens de l’identité. « Nous ne sommes pas seulement ce que nous lisons », dit Maryanne Wolf, psychologue du développement à l’université Tufts et l’auteur de « Proust et le Calamar : l’histoire et la science du cerveau qui lit. ». « Nous sommes définis par notre façon de lire. » Wolf s’inquiète que le style de lecture promu par le Net, un style qui place « l’efficacité » et « l’immédiateté » au-dessus de tout, puisse fragiliser notre capacité pour le style de lecture profonde qui a émergé avec une technologie plus ancienne, l’imprimerie, qui a permis de rendre banals les ouvrages longs et complexes. Lorsque nous lisons en ligne, dit-elle, nous avons tendance à devenir de « simples décodeurs de l’information ». Notre capacité à interpréter le texte, à réaliser les riches connexions mentales qui se produisent lorsque nous lisons profondément et sans distraction, reste largement inutilisée.

La lecture, explique Wolf, n’est pas une capacité instinctive de l’être humain. Elle n’est pas inscrite dans nos gènes de la même façon que le langage. Nous devons apprendre à nos esprits comment traduire les caractères symboliques que nous voyons dans un langage que nous comprenons. Et le médium ou toute autre technologie que nous utilisons pour apprendre et exercer la lecture joue un rôle important dans la façon dont les circuits neuronaux sont modelés dans nos cerveaux. Les expériences montrent que les lecteurs d’idéogrammes, comme les chinois, développent un circuit mental pour lire très différent des circuits trouvés parmi ceux qui utilisent un langage écrit employant un alphabet. Les variations s’étendent à travers de nombreuses régions du cerveau, incluant celles qui gouvernent des fonctions cognitives essentielles comme la mémoire et l’interprétation des stimuli visuels et auditifs. De la même façon, nous pouvons nous attendre à ce que les circuits tissés par notre utilisation du Net seront différents de ceux tissés par notre lecture des livres et d’autres ouvrages imprimés.

En 1882, Friedrich Nietzsche acheta une machine à écrire, une « Malling-Hansen Writing Ball » pour être précis. Sa vue était en train de baisser, et rester concentré longtemps sur une page était devenu exténuant et douloureux, source de maux de têtes fréquents et douloureux. Il fut forcé de moins écrire, et il eut peur de bientôt devoir abandonner. La machine à écrire l’a sauvé, au moins pour un temps. Une fois qu’il eut maîtrisé la frappe, il fut capable d’écrire les yeux fermés, utilisant uniquement le bout de ses doigts. Les mots pouvaient de nouveau couler de son esprit à la page.

Mais la machine eut un effet plus subtil sur son travail. Un des amis de Nietzsche, un compositeur, remarqua un changement dans son style d’écriture. Sa prose, déjà laconique, devint encore plus concise, plus télégraphique. « Peut-être que, grâce à ce nouvel instrument, tu vas même obtenir un nouveau langage », lui écrivit cet ami dans une lettre, notant que dans son propre travail ses « pensées sur la musique et le langage dépendaient souvent de la qualité de son stylo et du papier ».

« Tu as raison », répondit Nietzsche , « nos outils d’écriture participent à l’éclosion de nos pensées ». Sous l’emprise de la machine, écrit le spécialiste allemand des médias Friedrich A. Kittler, la prose de Nietzsche « est passée des arguments aux aphorismes, des pensées aux jeux de mots, de la rhétorique au style télégraphique ».

Le cerveau est malléable presque à l’infini. On a longtemps cru que notre réseau mental, les connexions denses qui se forment parmi nos cent milliards et quelques de neurones, sont largement établis au moment où nous atteignons l’âge adulte. Mais des chercheurs du cerveau ont découvert que ce n’était pas le cas. James Olds, professeur de neurosciences qui dirige l’institut Krasnow pour l’étude avancée à l’université George Mason, dit que même l’esprit adulte « est très plastique ». Les cellules nerveuses rompent régulièrement leurs anciennes connexions et en créent de nouvelles. « Le cerveau », selon Olds, « a la capacité de se reprogrammer lui-même à la volée, modifiant la façon dont il fonctionne. »

Lorsque nous utilisons ce que le sociologue Daniel Bell appelle nos « technologies intellectuelles », les outils qui étendent nos capacités mentales plutôt que physiques, nous empruntons inéluctablement les qualités de ces technologies. L’horloge mécanique, qui est devenu d’utilisation fréquente au 14ème siècle, fournit un exemple frappant. Dans « Technique et Civilisation », l’historien et critique culturel Lewis Mumford décrit comment l’horloge « a dissocié le temps des événements humains et a contribué à créer la croyance en un monde indépendant constitué de séquences mathématiquement mesurables ». La « structure abstraite du découpage du temps » est devenue « le point de référence à la fois pour l’action et les pensées ».

Le tic-tac systématique de l’horloge a contribué à créer l’esprit scientifique et l’homme scientifique. Mais il nous a également retiré quelque chose. Comme feu l’informaticien du MIT Joseph Weizenbaum l’a observé dans son livre de 1976, « Le pouvoir de l’ordinateur et la raison humaine : du jugement au calcul », la conception du monde qui a émergé de l’utilisation massive d’instruments de chronométrage « reste une version appauvrie de l’ancien monde, car il repose sur le rejet de ces expériences directes qui formaient la base de l’ancienne réalité, et la constituaient de fait. ». En décidant du moment auquel il faut manger, travailler, dormir et se lever, nous avons arrêté d’écouter nos sens et commencé à nous soumettre aux ordres de l’horloge.

Le processus d’adaptation aux nouvelles technologies intellectuelles est reflété dans les métaphores changeantes que nous utilisons pour nous expliquer à nous-mêmes. Quand l’horloge mécanique est arrivée, les gens ont commencé à penser que leur cerveau opérait « comme une horloge ». Aujourd’hui, à l’ère du logiciel, nous pensons qu’il fonctionne « comme un ordinateur ». Mais les changements, selon la neuroscience, dépassent la simple métaphore. Grâce à la plasticité de notre cerveau, l’adaptation se produit également au niveau biologique.

Internet promet d’avoir des effets particulièrement profonds sur la cognition. Dans un article publié en 1936, le mathématicien anglais Alan Turing a prouvé que l’ordinateur numérique, qui à l’époque n’existait que sous la forme d’une machine théorique, pouvait être programmé pour réaliser les fonctions de n’importe quel autre appareil traitant l’information. Et c’est ce à quoi nous assistons de nos jours. Internet, un système informatique d’une puissance inouïe, inclut la plupart de nos autres technologies intellectuelles. Il devient notre plan et notre horloge, notre imprimerie et notre machine à écrire, notre calculatrice et notre téléphone, notre radio et notre télévision.

Quand le Net absorbe un médium, ce médium est recréé à l’image du Net. Il injecte dans le contenu du médium des liens hypertextes, des pubs clignotantes et autres bidules numériques, et il entoure ce contenu avec le contenu de tous les autres média qu’il a absorbés. Un nouveau message e-mail, par exemple, peut annoncer son arrivée pendant que nous jetons un coup d’œil aux derniers titres sur le site d’un journal. Résultat : notre attention est dispersée et notre concentration devient diffuse.

L’influence du Net ne se limite pas aux bords de l’écran de l’ordinateur non plus. En même temps que l’esprit des gens devient sensible au patchwork disparate du médium Internet, les média traditionnels ont dû s’adapter aux nouvelles attentes de leur public. Les programmes de télévision ajoutent des textes défilants et des pubs qui surgissent, tandis que les magazines et les journaux réduisent la taille de leurs articles, ajoutent des résumés, et parsèment leurs pages de fragments d’information faciles à parcourir. Lorsque, au mois de mars de cette année, le New York Times a décidé de consacrer la deuxième et la troisième page de toutes ses éditions à des résumés d’articles, son directeur artistique, Tom Badkin, explique que les “raccourcis” donneront aux lecteurs pressés un « avant-goût » des nouvelles du jour, leur évitant la méthode « moins efficace » de tourner réellement les pages et de lire les articles. Les anciens média n’ont pas d’autre choix que de jouer suivant les règles du nouveau médium.

Jamais système de communication n’a joué autant de rôles différents dans nos vies, ou exercé une si grande influence sur nos pensées, que ne le fait Internet de nos jours. Pourtant, malgré tout ce qui a été écrit à propos du Net, on a très peu abordé la façon dont, exactement, il nous reprogramme. L’éthique intellectuelle du Net reste obscure.

À peu près au moment où Nietzsche commençait à utiliser sa machine à écrire, un jeune homme sérieux du nom de Frederick Winslow Taylor apporta un chronomètre dans l’aciérie Midvale de Philadelphie et entama une série d’expériences historique dont le but était d’améliorer l’efficacité des machinistes de l’usine. Avec l’accord des propriétaires de Midvale, il embaucha un groupe d’ouvriers, les fit travailler sur différentes machines de métallurgie, enregistra et chronométra chacun de leurs mouvements ainsi que les opérations des machines. En découpant chaque travail en une séquence de petites étapes unitaires et en testant les différentes façons de réaliser chacune d’entre elles, Taylor créa un ensemble d’instructions précises, un « algorithme », pourrions dire de nos jours, décrivant comment chaque ouvrier devait travailler. Les employés de Midvale se plaignirent de ce nouveau régime strict, affirmant que cela faisait d’eux quelque chose d’à peine mieux que des automates, mais la productivité de l’usine monta en flèche.

Plus de cent ans après l’invention de la machine à vapeur, la révolution industrielle avait finalement trouvé sa philosophie et son philosophe. La chorégraphie industrielle stricte de Taylor, son « système » comme il aimait l’appeler, fut adoptée par les fabricants dans tout le pays et, avec le temps, dans le monde entier. À la recherche de la vitesse, de l’efficacité et de la rentabilité maximales, les propriétaires d’usine utilisèrent les études sur le temps et le mouvement pour organiser leur production et configurer le travail de leurs ouvriers. Le but, comme Taylor le définissait dans son célèbre traité de 1911, « La direction des ateliers » (le titre original « The principles of scientific management » pourrait être traduit en français par « Les principes de l’organisation scientifique »), était d’identifier et d’adopter, pour chaque poste, la « meilleure méthode » de travail et ainsi réaliser « la substitution graduelle de la science à la méthode empirique dans les arts mécaniques ». Une fois que le système serait appliqué à tous les actes du travail manuel, garantissait Taylor à ses émules, cela amènerait un remodelage, non seulement de l’industrie, mais également de la société, créant une efficacité parfaite utopique. « Dans le passé, l’homme était la priorité », déclare-t-il, « dans le futur, la priorité, ce sera le système ».

Le système de Taylor, le taylorisme, est encore bien vivant ; il demeure l’éthique de la production industrielle. Et désormais, grâce au pouvoir grandissant que les ingénieurs informaticiens et les programmeurs de logiciel exercent sur nos vies intellectuelles, l’éthique de Taylor commence également à gouverner le royaume de l’esprit. Internet est une machine conçue pour la collecte automatique et efficace, la transmission et la manipulation des informations, et des légions de programmeurs veulent trouver « LA meilleure méthode », l’algorithme parfait, pour exécuter chaque geste mental de ce que nous pourrions décrire comme « le travail de la connaissance ».

Le siège de Google, à Mountain View, en Californie, le Googleplex, est la Haute Église d’Internet, et la religion pratiquée en ses murs est le taylorisme. Google, selon son directeur-général Eric Schmidt, est « une entreprise fondée autour de la science de la mesure » et il s’efforce de « tout systématiser » dans son fonctionnement. En s’appuyant sur les téra-octets de données comportementales qu’il collecte à travers son moteur de recherche et ses autres sites, il réalise des milliers d’expériences chaque jour, selon le Harvard Business Review, et il utilise les résultats pour peaufiner les algorithmes qui contrôlent de plus en plus la façon dont les gens trouvent l’information et en extraient le sens. Ce que Taylor a fait pour le travail manuel, Google le fait pour le travail de l’esprit.

Google a déclaré que sa mission était « d’organiser les informations du monde et de les rendre universellement accessibles et utiles ». Cette société essaie de développer « le moteur de recherche parfait », qu’elle définit comme un outil qui “comprendrait exactement ce que vous voulez dire et vous donnerait en retour exactement ce que vous désirez”. Selon la vision de Google, l’information est un produit comme un autre, une ressource utilitaire qui peut être exploitée et traitée avec une efficacité industrielle. Plus le nombre de morceaux d’information auxquels nous pouvons « accéder » est important, plus rapidement nous pouvons en extraire l’essence, et plus nous sommes productifs en tant que penseurs.

Où cela s’arrêtera-t-il ? Sergey Brin et Larry Page, les brillants jeunes gens qui ont fondé Google pendant leur doctorat en informatique à Stanford, parlent fréquemment de leur désir de transformer leur moteur de recherche en une intelligence artificielle, une machine comme HAL, qui pourrait être connectée directement à nos cerveaux. « Le moteur de recherche ultime est quelque chose d’aussi intelligent que les êtres humains, voire davantage », a déclaré Page lors d’une conférence il y a quelques années. « Pour nous, travailler sur les recherches est un moyen de travailler sur l’intelligence artificielle. » Dans un entretien de 2004 pour Newsweek, Brin affirmait : « Il est certain que si vous aviez toutes les informations du monde directement fixées à votre cerveau ou une intelligence artificielle qui serait plus intelligente que votre cerveau, vous vous en porteriez mieux. » L’année dernière, Page a dit lors d’une convention de scientifiques que Google « essayait vraiment de construire une intelligence artificielle et de le faire à grande échelle. »

Une telle ambition est naturelle, et même admirable, pour deux mathématiciens prodiges disposant d’immenses moyens financiers et d’une petite armée d’informaticiens sous leurs ordres. Google est une entreprise fondamentalement scientifique, motivée par le désir d’utiliser la technologie, comme l’exprime Eric Schmidt, « pour résoudre les problèmes qui n’ont jamais été résolus auparavant », et le frein principal à la réussite d’une telle entreprise reste l’intelligence artificielle. Pourquoi Brin et Page ne voudraient-ils pas être ceux qui vont parvenir à surmonter cette difficulté ?

Pourtant, leur hypothèse simpliste voulant que nous nous « porterions mieux » si nos cerveaux étaient assistés ou même remplacés par une intelligence artificielle, est inquiétante. Cela suggère que d’après eux l’intelligence résulte d’un processus mécanique, d’une suite d’étapes discrètes qui peuvent être isolés, mesurés et optimisés. Dans le monde de Google, le monde dans lequel nous entrons lorsque nous allons en ligne, il y a peu de place pour le flou de la réflexion. L’ambiguïté n’est pas un préliminaire à la réflexion mais un bogue à corriger. Le cerveau humain n’est qu’un ordinateur dépassé qui a besoin d’un processeur plus rapide et d’un plus gros disque dur.

L’idée que nos esprits doivent fonctionner comme des machines traitant des données à haute vitesse n’est pas seulement inscrite dans les rouages d’Internet, c’est également le business-model qui domine le réseau. Plus vous surfez rapidement sur le Web, plus vous cliquez sur des liens et visitez de pages, plus Google et les autres compagnies ont d’occasions de recueillir des informations sur vous et de vous nourrir avec de la publicité. La plupart des propriétaires de sites commerciaux ont un enjeu financier à collecter les miettes de données que nous laissons derrière nous lorsque nous voletons de lien en lien : plus y a de miettes, mieux c’est. Une lecture tranquille ou une réflexion lente et concentrée sont bien les dernières choses que ces compagnies désirent. C’est dans leur intérêt commercial de nous distraire.

Peut-être ne suis-je qu’un angoissé. Tout comme il y a une tendance à glorifier le progrès technologique, il existe la tendance inverse, celle de craindre le pire avec tout nouvel outil ou toute nouvelle machine. Dans le Phèdre de Platon, Socrate déplore le développement de l’écriture. Il avait peur que, comme les gens se reposaient de plus en plus sur les mots écrits comme un substitut à la connaissance qu’ils transportaient d’habitude dans leur tête, ils allaient, selon un des intervenants d’un dialogue, « arrêter de faire travailler leur mémoire et devenir oublieux. » Et puisqu’ils seraient capables de « recevoir une grande quantité d’informations sans instruction appropriée », ils risquaient de « croire posséder une grande connaissance, alors qu’ils seraient en fait largement ignorants ». Ils seraient « remplis de l’orgueil de la sagesse au lieu de la sagesse réelle ». Socrate n’avait pas tort, les nouvelles technologies ont souvent les effets qu’il redoutait, mais il manquait de vision à long terme. Il ne pouvait pas prévoir les nombreux moyens que l’écriture et la lecture allaient fournir pour diffuser l’information, impulsant des idées fraîches et élargissant la connaissance humaine (voire la sagesse).

L’arrivée de l’imprimerie de Gutenberg, au XVème siècle, déclencha une autre série de grincements de dents. L’humaniste italien Hieronimo Squarciafico s’inquiétait que la facilité à obtenir des livres conduise à la paresse intellectuelle, rende les hommes « moins studieux » et affaiblisse leur esprit. D’autres avançaient que des livres et journaux imprimés à moindre coût allaient saper l’autorité religieuse, rabaisser le travail des érudits et des scribes, et propager la sédition et la débauche. Comme le professeur de l’université de New York, Clay Shirky, le remarque, « la plupart des arguments contre l’imprimerie était corrects et même visionnaires. » Mais, encore une fois, les prophètes de l’apocalypse ne pouvaient imaginer la myriade de bienfaits que le texte imprimé allait amener.

Alors certes, vous pouvez vous montrer sceptique vis-à-vis de mon scepticisme. Ceux qui considèrent les détracteurs d’Internet comme des béotiens technophobes ou passéistes auront peut-être raison, et peut-être que de nos esprits hyperactifs, gavés de données surgira un âge d’or de la découverte intellectuelle et de la sagesse universelle. Là encore, le Net n’est pas l’alphabet, et même s’il remplacera peut-être l’imprimerie, il produira quelque chose de complètement différent. Le type de lecture profonde qu’une suite de pages imprimées stimule est précieux, non seulement pour la connaissance que nous obtenons des mots de l’auteur, mais aussi pour les vibrations intellectuelles que ces mots déclenchent dans nos esprits. Dans les espaces de calme ouverts par la lecture soutenue et sans distraction d’un livre, ou d’ailleurs par n’importe quel autre acte de contemplation, nous faisons nos propres associations, construisons nos propres inférences et analogies, nourrissons nos propres idées. La lecture profonde, comme le défend Maryanne Wolf, est indissociable de la pensée profonde.

Si nous perdons ces endroits calmes ou si nous les remplissons avec du « contenu », nous allons sacrifier quelque chose d’important non seulement pour nous même, mais également pour notre culture. Dans un essai récent, l’auteur dramatique Richard Foreman décrit de façon éloquente ce qui est en jeu :

Je suis issu d’une tradition culturelle occidentale, pour laquelle l’idéal (mon idéal) était la structure complexe, dense et « bâtie telle une cathédrale » de la personnalité hautement éduquée et logique, un homme ou une femme qui transporte en soi-même une version unique et construite personnellement de l’héritage tout entier de l’occident. Mais maintenant je vois en nous tous (y compris en moi-même) le remplacement de cette densité interne complexe par une nouvelle sorte d’auto-évolution sous la pression de la surcharge d’information et la technologie de « l’instantanément disponible ».

À mesure que nous nous vidons de notre « répertoire interne issu de notre héritage dense », conclut Foreman, nous risquons de nous transformer en « crêpe humaine », étalée comme un pâte large et fine à mesure que nous nous connectons à ce vaste réseau d’information accessible en pressant simplement sur une touche.”

Cette scène de 2001 : l’odyssée de l’espace me hante. Ce qui la rend si poignante, et si bizarre, c’est la réponse pleine d’émotion de l’ordinateur lors du démontage de son esprit : son désespoir à mesure que ses circuits s’éteignent les uns après les autres, sa supplication enfantine face à l’astronaute, “Je le sens, je le sens. J’ai peur.”, ainsi que sa transformation et son retour final à ce que nous pourrions appeler un état d’innocence. L’épanchement des sentiments de HAL contraste avec l’absence d’émotion qui caractérise les personnages humains dans le film, lesquels s’occupent de leur boulot avec une efficacité robotique. Leurs pensées et leurs actions semblent scénarisées, comme s’ils suivaient les étapes d’un algorithme. Dans le monde de 2001, les hommes sont devenus si semblables aux machines que le personnage le plus humain se trouve être une machine. C’est l’essence de la sombre prophétie de Kubrick : à mesure que nous nous servons des ordinateurs comme intermédiaires de notre compréhension du monde, c’est notre propre intelligence qui devient semblable à l’intelligence artificielle.

Notes

[1] Crédit photo : Striatic (Creative Commons By)




Et si cela ne servait plus à rien de mémoriser et d’apprendre par coeur ?

Jesse Gardner - CC by-saIl arrive que Framalang s’aventure parfois parfois en dehors des sentiers battus du logiciel libre, en particulier lorsqu’il s’agit d’éducation (comme ce fut par exemple le cas pour notre traduction tentant de comprendre le fameux système finlandais).

Aujourd’hui nous mettons un peu les pieds dans le plat en interrogeant la pertinence d’un des socles de l’éducation du millénaire précédent, à savoir la mémorisation et le « par cœur ». Est-ce que le numérique, et son accès immédiat à des informations telles que celles de Wikipédia (via nos appareils nomades connectés en permanence), change la donne ? Telle est la question.

Une question qui rejoint le débat sur la capacité de concentration déclinante des élèves de la nouvelle génération[1] alors que s’élèvent leurs capacités de sélection et de prise de décision rapide dans un univers saturé d’informations[2].

Éducation 2.0 : la fin du par cœur ?

Education 2.0: Never Memorize Again?

Sarah Perez – 2 décembre 2008 – ReadWriteWeb
(Traduction Framalang : Don Rico, Penguin et Olivier)

Apprendre par cœur est une perte de temps lorsqu’on n’est qu’à quelques clics de Google. Telle est la conviction de Don Tapscott, auteur de Wikinomics et Growing Up Digital, deux livres à grand succès. Tapscott, que beaucoup considèrent comme un commentateur influent de notre ère de l’Internet, pense que le temps de l’apprentissage par la mémorisation des faits et des chiffres touche à sa fin. Il estime que l’on devrait plutôt enseigner aux écoliers et aux étudiants à fournir une réflexion créative et à mieux comprendre les connaissances disponibles en ligne.

Apprendre par cœur ? Une perte de temps

D’après Tapscott, l’existence des Google, Wikipédia et autres bibliothèques en ligne induit que l’apprentissage par cœur n’est plus un élément nécessaire de l’éducation. « Le puits de science, ce n’est plus l’enseignant, c’est Internet », a déclaré Tapscott dans un entretien donné au Times. « Les enfants doivent certes apprendre l’histoire pour comprendre le monde et savoir pourquoi les choses sont comme elles sont. En revanche, inutile de connaître toutes les dates sur le bout des doigts. Il leur suffira de savoir ce qu’a été la bataille d’Hastings sans forcément devoir retenir qu’elle a eu lieu en en 1066[3]. Ça, ils peuvent le chercher et le situer sur l’échelle de l’Histoire en un clic sur Google, » a-t-il expliqué.

Il estime que cette méthode d’apprentissage n’a rien d’anti-pédagogique, puisque les renseignements que nous devons tous digérer nous parviennent à une cadence étourdissante. « Les enfants vont devoir réinventer leurs bases de connaissances de nombreuses fois, » poursuit-il. « Pour eux, mémoriser des faits et des chiffres est donc une perte de temps. »

Aux yeux des générations précédentes, qui ont grandi en devant apprendre par cœur dates historiques et formules mathématiques, l’idée que la mémorisation ne fasse pas partie de l’expérience de l’apprentissage est assez choquante. Allons, il est indispensable de savoir exactement en quelle année un évènement s’est produit… n’est-ce pas ? À moins qu’il soit plus utile de n’en avoir qu’une idée approximative de façon à se concentrer davantage sur une meilleure compréhension de son contexte et de son sens ?

Un cerveau câblé

Les écoliers d’aujourd’hui grandissent dans un monde où, par leur capacité à faire plusieurs choses en même temps, ils sont totalement plongés dans l’univers numérique. Ils envoient des textos et surfent sur Internet tout en écoutant de la musique et en mettant à jour leur page Facebook. Cette « attention partielle permanente » et ses effets sur notre cerveau est un sujet qui fait actuellement largement débat dans les milieux pédagogiques. Sommes-nous en train de perdre notre capacité de concentration ou notre cerveau s’adapte-il à un afflux continu de stimuli ?

Un nouvel ouvrage traitant de ce sujet, « iBrain: Surviving the Technological Alteration of the Modern Mind, »[4] émet l’hypothèse que cette exposition au Web a des conséquences sur la façon dont le cerveau forge les chemins neuronaux. Câbler ainsi notre cerveau accroît notre capacité à trier les informations, à prendre des décisions rapides et à séparer le bon grain de l’ivraie numérique, mais en revanche, nous perdons de notre aptitude à nous concentrer de façon soutenue, à déchiffrer le langage corporel et à nous faire des amis dans le monde réel.

Si notre cerveau est réellement en train de modifier son câblage, la logique ne voudrait-elle pas que nous adaptions aussi notre façon d’enseigner aux élèves ? À vrai dire, ceux qui le pensent ne sont pas légion. La plupart des pédagogues, tel Richard Cairns, proviseur du Brighton College, un des meilleurs établissements privés d’Angleterre, estiment que posséder des bases de connaissances solides est essentiel. « Il est important que les enfants apprennent les faits. Si l’on ne peut puiser dans aucune réserve de connaissances, difficile de participer à un débat ou de prendre une décision éclairée, » affirme-t-il.

Et vous, qu’en pensez-vous ?

Notes

[1] On pourra lire à ce sujet les deux ouvrages de Bernard Stiegler : Prendre soin, de la jeunesse et des générations et La Télécratie contre la démocratie.

[2] Crédit photo : Jesse Gardner (Creative Commons By-Sa)

[3] La bataille d’Hastings est une date très importante dans l’histoire de l’Angleterre, puisque c’est celle du début de l’invasion de l’île par Guillaume le Conquérant. Un équivalent français pourrait être la prise de la Bastille.

[4] « iCerveau : survivre à l’altération de l’esprit moderne par la technologie. »




De l’usage des « œuvres protégées » à l’Éducation Nationale

MK Media - CC byD’un côté vous avez le « copyright », qui donne à l’auteur un droit exclusif d’exploitation sur son œuvre (texte, image, musique, cinéma, logiciel, etc.) et qui s’applique par défaut en l’absence de toute autre mention.

C’est ce qu’a toujours connu l’Éducation Nationale avant l’apparition des nouvelles technologies, et mis à part le problème du « photocopillage qui tue le livre », tout allait pour le mieux dans le meilleur des mondes possibles. D’autant que l’on ne pouvait pas avoir conscience qu’il pouvait en être autrement. Et puis, il suffisait d’être patient et d’attendre que certaines œuvres tombent dans le domaine public.

Puis est arrivé le « copyleft », c’est-à-dire la possibilité donnée par l’auteur d’un travail soumis au droit d’auteur (texte, image, musique, cinéma, logiciel, etc.) de copier, d’utiliser, d’étudier, de modifier et de distribuer son œuvre dans la mesure où ces possibilités restent préservées.

Ce copyleft ouvre la voie aux Open Educational Ressources. Nous en avons un bel exemple chez nous avec Sésamath et ses « manuels libres », et rien que cette semaine j’ai noté deux nouvelles ressources scolaires dans la sphère anglophone : Collaborative Statistics, un manuel sous licence Creative Commons By-Sa et Chemical Process Dynamics and Controls édité à même un wiki et sous la même licence[1].

Question : Qui du copyright ou du copyleft est plus adapté aux situations d’enseignement à l’ère du numérique ?

Pour nous aider à répondre nous allons nous appuyer sur les accords issus du texte toujours en vigueur paru au Bulletin Officiel n°5 du 1er février 2007 concernant l’usage en situation scolaire de l’écrit, de la presse, des arts visuels, de la musique et de l’audiovisuel.

L’un des problèmes de ces accords c’est qu’il y a confusion et collusion entre « œuvres protégées » et « œuvres protégées sous le classique copyright ». Le copyleft, qui n’est à aucun moment mentionné, protège lui aussi les œuvres, par exemple en garantissant toujours la paternité des auteurs, mais pas de la même façon et pas dans le même but.

Toujours est-il que voici donc nos enseignants confrontés uniquement à des œuvres protégées sous copyright. Et là, tout petit hiatus, on ne peut a priori strictement rien faire avec de telles œuvres puisque l’auteur (ou les ayant-droits) en détient les droits exclusifs d’exploitation. Pour lever l’interdit il faudrait en théorie demander au cas par cas les autorisations. Vous imaginez un professeur d’histoire et géographie contactant tous les ayant-droits des illustrations qu’ils comptent montrer à ses élèves pendant toute l’année avec toutes ses classes ? Ce n’est pas réaliste.

Dans la mesure où « l’exception pédagogique » n’est parait-il qu’un mythe sans le moindre fondement juridique, l’Institution se devait de faire quelque chose et c’est ce qui fut fait avec ce texte officiel du BO, conséquence directe des négociations avec les ayant-droits de « l’industrie culturelle ».

En voici quelques extraits (évidemment choisis et commentés à dessein, donc je vous invite à le lire en intégralité, histoire de vous en faire une meilleure idée, c’est un peu indigeste mais juridiquement et aussi « culturellement » c’est fort instructif et pas seulement si vous faites partie de la maison).

Accrochez-vous et ayez une pensée compatissante pour nos enseignants qui doivent en connaître les détails sur le bout des doigts et ne surtout pas commettre d’erreurs dans leurs applications.

Mise en œuvre des accords sectoriels sur l’utilisation des œuvres protégées à des fin d’enseignement et de recherche

C’est l’accord général qui fixe le cadre et donne le modèle.

Le ministre de l’éducation nationale, de l’enseignement supérieur et de la recherche a conclu, avec les titulaires des droits d’auteur et en présence du ministre de la culture et de la communication, cinq accords sur l’utilisation des œuvres protégées à des fins d’enseignement et de recherche, à raison d’un accord pour chacun des grands secteurs de la propriété littéraire et artistique : l’écrit, la presse, les arts visuels, la musique et l’audiovisuel.

Louable intention.

Le champ de ces accords recoupe dans une large mesure celui de la clause introduite au e) du 3° de l’article L. 122-5 du code de la propriété intellectuelle par la loi n° 2006-961 du 1er août 2006 relative au droit d’auteur et aux droits voisins dans la société de l’information.

Droit d’Auteur et Droits Voisins dans la Société de l’Information parfois appelé aussi DADVSI.

Conformément aux principes fondamentaux du droit de propriété intellectuelle, constamment rappelés par la législation française, l’utilisation collective d’une œuvre protégée est soumise en principe au consentement préalable du titulaire des droits d’auteur. Pour répondre aux besoins du service public de l’enseignement et favoriser la diversification des supports pédagogiques, les cinq accords sectoriels proposent un cadre général pour les utilisations les plus usuelles. Les utilisations qui entrent dans le champ de ces accords et qui en respectent les clauses sont réputées autorisées sans que les établissements ou les personnels n’aient à effectuer de démarches particulières.

C’est ce que j’évoquais plus haut. L’idée c’est d’obtenir une sorte de passe-droit pour ne plus avoir à demander d’autorisations. Bien entendu, comme nous le verrons plus bas, il y a quelques compensations.

La représentation dans la classe d’œuvres protégées est couverte de façon générale dès lors qu’elles illustrent le cours. Il en va ainsi de la projection d’une image, d’un document audiovisuel ou de la diffusion d’une chanson qui éclaire un point de l’enseignement ou qui en constitue l’objet principal. Cette représentation collective peut également intervenir pour illustrer le travail qu’un élève ou un étudiant présente à la classe.

Cette couverture est pleine de bon sens sauf si c’est le seul cas de couverture possible.

Les accords autorisent la représentation d’extraits d’œuvres lors de colloques, conférences ou séminaires organisés à l’initiative et sous la responsabilité des établissements d’enseignement supérieur ou de recherche. Les accords exigent que le colloque, la conférence ou le séminaire soit destiné aux étudiants ou aux chercheurs. Dans le cas contraire, la représentation d’œuvres sera subordonnée à l’accord préalable des titulaires de droit.

Le supérieur n’est pas très gâté. On lui fixe un cadre très précis et dans le cas contraire c’est interdit (sauf accord préalable…).

Les dimensions des œuvres qui peuvent être numérisées et incorporées dans un travail pédagogique ou de recherche mis en ligne sont précisées pour chaque catégorie :
– pour les livres : 5 pages par travail pédagogique ou de recherche, sans coupure, avec reproduction en intégralité des œuvres des arts visuels qui y figurent, dans la limite maximum de 20% de la pagination de l’ouvrage. Dans le cas particulier d’un manuel scolaire, l’extrait ne peut excéder 4 pages consécutives, par travail pédagogique ou de recherche, dans la limite de 5% de la pagination de l’ouvrage par classe et par an ;
– pour la presse : deux articles d’une même parution sans excéder 10% de la pagination ;
– pour les arts visuels : le nombre d’œuvres est limité à 20 œuvres par travail pédagogique ou de recherche mis en ligne. Toute reproduction ou représentation numérique de ces œuvres doit avoir sa définition limitée à 400×400 pixels et avoir une résolution de 72 DPI.

Arbitraire et pour le moins alambiqué tout ça ! Limite ubuesque ! Rappelons, pour mémoire, qu’avec le copyleft il n’y aucune contrainte d’utilisation.

La mise en ligne de thèses sur le réseau internet est admise en l’absence de toute utilisation commerciale et, le cas échéant, après accord de l’éditeur de la thèse. La mise en ligne devra utiliser un procédé empêchant celui qui consulte la thèse sur internet de télécharger les œuvres qui y sont incorporées.

Nouvelle barrière.

La reproduction numérique d’une œuvre doit faire l’objet d’une déclaration pour permettre d’identifier les œuvres ainsi reproduites. Cette déclaration consiste à compléter le formulaire mis en ligne à l’adresse suivante.

Il y a donc obligation de déclarer chaque œuvre utilisée ! Ce qui, pour notre professeur d’histoire-géographie, peut prendre un certain temps. Mais ayez la curiosité de vous rendre sur le site de la déclaration. Aucune identification n’est demandée, je me suis imaginé renseignant une photographie et me suis retrouvé avec deux uniques champs : « Auteur » et « Nbre estimé d’élèves/étudiants destinataires ». On clique sur valider et c’est tout. Est-ce ainsi que l’on va redistribuer équitablement les droits ?

Accord sur l’utilisation des livres et de la musique imprimée à des fins d’illustration des activités d’enseignement et de recherche

Le cas particulier des livres (et des partitions musicales). Accord entre le ministère et Le Centre français d’exploitation du droit de copie (CFC), agissant également au nom de la société de perception et de répartition de droits suivante AVA, sur mandat exprès de ces dernières, La Société des éditeurs et auteurs de musique (SEAM) ci-après dénommés « les représentants des ayants droit ».

Le ministère réaffirme son attachement au respect des droits de propriété littéraire et artistique. Il partage le souci des ayants droit de mener des actions coordonnées pour sensibiliser l’ensemble des acteurs du système éducatif – enseignants, élèves, étudiants et chercheurs – sur l’importance de ces droits et sur les risques que la contrefaçon fait courir à la vitalité et la diversité de la création littéraire et artistique.

J’ai déjà entendu cela quelques part…

Pour ce qui concerne les œuvres musicales visées par l’accord : de parties d’œuvres musicales visées par l’accord dont la longueur sera déterminée d’un commun accord entre les Parties, en fonction des œuvres concernées et des usages appliqués ; à défaut d’accord particulier, l’extrait ne peut excéder 20 % de l’œuvre musicale concernée (paroles et/ou musique) par travail pédagogique ou de recherche, par classe et par an, dans la limite maximale de 3 pages consécutives d’une même œuvre musicale visée par l’accord ; pour les ouvrages de formation ou d’éducation musicales et les méthodes instrumentales, l’extrait ne peut excéder 5 % d’une même œuvre musicale visée par l’accord (paroles et/ou musique) par travail pédagogique ou de recherche, par classe et par an, dans la limite maximale de 2 pages consécutives d’une même œuvre musicale visée par l’accord.

Bienvenue dans le monde de la complexité…

En ce qui concerne les œuvres musicales visées par l’accord, sont autorisées exclusivement les reproductions numériques graphiques temporaires exclusivement destinées à la représentation en classe par projection collective. Les reproductions d’œuvres musicales par reprographie ne sont en aucune manière autorisées par le présent accord ainsi que rappelé à l’article 4.2 ci-après. Il est précisé que le présent article n’autorise pas les reproductions numériques temporaires des œuvres musicales visées par l’accord disponibles uniquement à la location auprès des éditeurs concernés.

Un vrai terrain miné…

L’accord n’autorise pas la distribution aux élèves, étudiants ou chercheurs de reproductions intégrales ou partielles d’œuvres visées par l’accord.

C’est bien dommage parce qu’avec le copyleft l’élève peut tranquillement repartir de l’école avec l’œuvre numérique dans sa clé USB.

Les moteurs de recherche des intranets et extranets des établissements permettront l’accès aux travaux pédagogiques ou de recherche, ou aux communications faites lors de colloques, conférences ou séminaires, mais ne comporteront en aucune manière un mode d’accès spécifique aux œuvres visées par l’accord ou aux extraits d’œuvres visées par l’accord ou une indexation de celles-ci.

De la recherche bridée en somme.

Le ministère informera les établissements du contenu et des limites de l’accord. Il s’engage également à mettre en place dans l’ensemble des établissements des actions de sensibilisation à la création, à la propriété littéraire et artistique et au respect de celle-ci. Ces actions, définies en liaison avec les représentants des ayants droit, interviendront au moins une fois par an et par établissement. Elles pourront prendre des formes diverses en partenariat avec des auteurs, des compositeurs, des éditeurs de livres ou de musique ou des artistes plasticiens.

Je veux bien participer 😉

En contrepartie des autorisations consenties dans l’accord et compte tenu des engagements pris par le ministère à l’article 6, celui-ci versera au CFC et à la SEAM une somme de :
– 1 146 000 euros sur l’exercice budgétaire 2007 ;
– 1 146 000 euros sur l’exercice budgétaire 2008.
Cette somme sera répartie par le CFC et la SEAM entre les titulaires de droits ou leur représentant qui leur ont donné mandat pour conclure l’accord.

C’est précis et non négligeable.

Dans l’hypothèse où il apparaîtrait que, dans le cours de l’application de l’accord, les utilisations numériques d’œuvres visées par l’accord augmenteraient de façon significative, la rémunération définie ci-dessus devra être révisée en conséquence. Les Parties se rapprocheront pour fixer la rémunération adaptée.

Je suis curieux de savoir comment on peut réellement se rendre compte de cela. Via le formulaire de renseignement mentionné plus haut ? Je n’ose à peine le croire !

Les représentants des ayants droit pourront procéder ou faire procéder à des vérifications portant sur la conformité des utilisations d’œuvres visées par l’accord au regard des clauses de l’accord. Les agents assermentés de chaque représentant des ayants droit auront la faculté d’accéder aux réseaux informatiques des établissements afin de procéder à toutes vérifications nécessaires. Ils pourront contrôler notamment l’exactitude des déclarations d’usage et la conformité de l’utilisation des œuvres visées par l’accord avec chaque stipulation de l’accord.

Quand les « agents assermentés » des ayant-droits sont autorisés à pénétrer dans le sanctuaire scolaire… Je ne sais pas trop (ou trop bien) comment qualifier cela.

Accord sur l’utilisation des publication périodiques imprimées à des fins d’illustration des activités d’enseignement et de recherche

Le cas de la presse. Accord entre le ministère et Le Centre français d’exploitation du droit de copie (CFC) agissant au nom des éditeurs de publications périodiques imprimées.

En contrepartie des autorisations consenties par le présent accord, le ministère de l’éducation nationale, de l’enseignement supérieur et de la recherche versera au CFC une somme de :
– 291 000 euros sur l’exercice budgétaire 2007 ;
– 291 000 euros sur l’exercice budgétaire 2008.
Cette somme sera répartie par le CFC entre les titulaires de droits qui lui ont donné mandat pour conclure le présent accord.

Accord sur l’utilisation des œuvres des arts visuels à des fins d’illustration des activités d’enseignement et de recherche

Passons aux œuvres des arts visuels (images, photos, illustrations, etc.). Accord signé entre le ministère et l’AVA, société de perception et de répartition de droits, agissant au nom des sociétés de perception et de répartition de droits suivantes sur mandat exprès de ces dernières : ADAGP, SACD, SAIF et SCAM, l’ensemble de ces sociétés étant ci-après dénommées « les sociétés de perception et de répartition de droits ».

En contrepartie des autorisations consenties dans l’accord et compte tenu des engagements pris par le ministère à l’article 6, celui-ci versera à AVA une somme de :
– 263 000 euros sur l’exercice budgétaire 2007 ;
– 263 000 euros sur l’exercice budgétaire 2008.
Cette somme sera répartie par AVA aux titulaires de droits ou leur représentant.

Accord sur l’interprétation vivante d’œuvres musicales, l’utilisation d’enregistrements sonors d’œuvres musicales et l’utilisation de vidéomusiques à des fins d’illustration des activités d’enseignement et de recherche

Quant à la musique… Accord entre le ministère et La SACEM, société des auteurs, compositeurs et éditeurs de musique, agissant pour elle- même et au nom des sociétés de perception et de répartition suivantes sur mandat exprès de celles-ci : ADAMI, SACD, SCPP, SDRM, SPPF, SPRE, SPEDIDAM, l’ensemble de ces sociétés, y compris la SACEM, étant ci-après dénommées « les sociétés de perception et de répartition de droits ».

En contrepartie des autorisations consenties par l’accord et compte tenu des engagements pris par le ministère à l’article 5, le ministère versera à la SACEM une somme de :
– 150 000 euros sur l’exercice budgétaire 2007 ;
– 150 000 euros sur l’exercice budgétaire 2008.
Cette somme sera répartie par la SACEM entre les sociétés de perception et de répartition de droits.

Accord sur l’utilisation des œuvres cinématographiques et audiovisuelles à des fins d’illustration des activités d’enseignement et de recherche

Et pour finir le cinéma. Accord entre le ministère et la PROCIREP, société des producteurs de cinéma et de télévision, agissant au nom des sociétés de perception et de répartition de droits assurant la gestion des droits sur les œuvres audiovisuelles et cinématographiques, ci- dessous désignées : ARP, ADAMI, SACD, SACEM, SCAM, SPEDIDAM, l’ensemble de ces sociétés, y compris la PROCIREP, étant ci-après dénommées « les sociétés de perception et de répartition de droits ».

Est autorisée par l’accord la représentation dans la classe, aux élèves ou étudiants, de toute œuvre cinématographique ou audiovisuelle diffusée par un service de communication audiovisuelle hertzien non payant (…) L’utilisation d’un support édité du commerce (VHS préenregistrée du commerce, DVD vidéo, etc.) ou d’une œuvre cinématographique ou audiovisuelle diffusée sur un service de communication audiovisuelle payant, tel que, par exemple, Canal+, Canalsatellite, TPS, ou un service de vidéo à la demande (VOD ou S-VOD), n’est pas autorisée par l’accord, sauf dans le cas prévu à l’article 3.2.

Ne reste plus, si j’ai bien compris, que nos chères chaînes de télévision généralistes à voir uniquement en direct live.

En contrepartie des autorisations consenties par l’accord et compte tenu des engagements pris par le ministère à l’article 5, le ministère versera à la PROCIREP une somme de :
– 150 000 euros sur l’exercice budgétaire 2007 ;
– 150 000 euros sur l’exercice budgétaire 2008.
Cette somme sera répartie par la PROCIREP entre les sociétés de perception et de répartition de droits.

Je prends ma calculette… ce qui nous donne pour les seules années 2007 et 2008… quatre millions d’euros tout rond pour toutes « les sociétés de perception et de répartition de droits ». C’est pas mal, surtout si l’on se souvient des nombreuses clauses restrictives qui parsèment les accords (et puis, au risque de m’égarer, n’oublions pas également la taxe sur la copie privée, qui certes s’applique à tout le monde mais qui participe de la même logique).

Voilà. Dans un monde où n’existerait que le copyright, on se retrouve à négocier ainsi avec les ayant-droits de l’industrie culturelle pour le résultat que vous avez donc aujourd’hui sous les yeux. Reconnaissons que ce n’est pas toujours évident pour les enseignants (et leurs élèves) de s’y retrouver !

Il est à noter qu’à l’époque de la discussion de ces accords, c’est-à-dire en 2006 au fameux temps de l’examen de la loi DADVSI, certains enseignants n’avaient pas hésité à carrément prôner la « désobéissance civile ». Avec une pétition à le clé ayant regroupée pas moins de 5000 signataires.

Il y a cependant une bonne nouvelle. Tous ces accords se terminent le 31 décembre 2008. Nous attendons donc avec impatience (et fébrilité) les nouvelles directives 2009. Peut-être que cette fois-ci le copyleft aura doit de cité ? Dans le cas contraire, cela n’empêchera nullement les enseignants de s’y intéresser toujours davantage, pour finir par lentement mais sûrement construire ensemble les bases d’un nouveau paradigme.

Notes

[1] Crédit photo : MK Media (Creative Commons By)




L’accès au fichier professionnel des enseignants : l’exemple Microsoft

Microsoft - Lettre aux profsEn juin dernier Microsoft « offrait » sa suite bureautique aux enseignants sous l’aile bienveillante et complice d’associations comme Projetice ou le Café Pédagogique.

J’ai déjà eu plusieurs fois l’occasion d’en parler, je n’y reviens pas. Par contre ce que je n’avais pas évoqué c’est que cette annonce s’était accompagnée d’un courrier publicitaire nominatif adressé à un certains nombres de collègues directement dans leur casier de la salle des profs (autrement dit leur boite à lettres professionnelle).

Combien ? Aucune idée, mais au moins quelques uns disséminés aux quatre coins de la France si j’en juge par les témoignages reçus par courrier électronique. Et du coup je suppute par extrapolation que beaucoup d’enseignants ont été touchés par cette publicité non forcément désirée (et j’en appelle d’ailleurs aux commentaires pour infirmer ou confirmer cela).

Je précise que pour ce qui me concerne je n’ai rien reçu (faut dire que j’enseigne à l’étranger) mais un collègue lecteur du Framablog m’avait malicieusement mis la brochure entre les mains lors des récentes Rencontres mondiales du logiciel libre de Mont-de-Marsan. Du bel ouvrage, papier A4 glacé tout en couleur, on ne lésine pas sur la qualité et le moyens.

Récidive en ce mois d’octobre, avec les « offres de rentrée Microsoft Office 2007 pour votre établissement ». Cela reste encore un peu compliqué niveau licence (soit une location, soit un prix « attractif » pourvu que l’on dépasse les vingt unités) mais ce qui est certain c’est que la tendance est à la baisse des tarifs, la faute à la concurrence libre qui sait ?!

Le collègue qui m’a signalé cette dernière info a joint son message avec un scan de la lettre que je vous propose ci-dessous.

Une fois de plus, et c’est là où je veux en venir, la lettre était nominative. Il ne s’agissait d’un courrier générique envoyé aux professeurs de l’établissement X (et que l’administration se chargerait de distribuer dans les casiers) mais bien, comme la fois précédente, d’un courrier directement adressé au professeur Y.

D’où la question naïve suivante : Comment fait donc Microsoft pour avoir accès au fichier à jour des enseignants ? Comment la société devine-t-elle que dans l’établissement X se trouve le professeur Y ?

Ne soyons pas dupe, il n’y a pas que Microsoft qui ait accès au fichier. Il y a aussi les éditeurs de manuels scolaires par exemple qui en fin d’année envoient traditionnellement (et gratuitement) des spécimen dans l’espoir que l’équipe pédagogique porte leurs choix sur eux.

Il n’empêche qu’à l’heure où tout ce qui touche aux données personnelles est un sujet hautement sensible, il me semble étrange que personne ne s’interroge sur les facilités qu’auraient certaines entités commerciales à pénétrer aussi facilement les institutions publiques, qui plus est scolaires, pour diffuser le plus tranquillement du monde leur publi-information.




En réponse au Café Pédagogique

Kevinmcgrewphoto.com - CC byLe site du Café Pédagogique compte plus de 150 000 abonnés à ses différentes éditions et avoisine le million de visiteurs par mois. Il est sans conteste la principale source d’information d’un monde enseignant hautement reconnaissant du service rendu. Là où le bât blesse c’est que faute d’aides institutionnelles il a contracté depuis un certain temps déjà un solide partenariat avec Microsoft qui s’apparente un peu au mariage de la carpe et du lapin.

Les conséquences sont malheureusement assez lourdes pour ceux qui souhaitent faire avancer le logiciel libre à l’école car avec la caution du Café Pédagogique les enseignants se sentent en confiance et en sécurité. Si le Café organise un forum d’enseignants innovants, il n’y a qu’à se réjouir et profiter d’une telle opportunité sans trop se poser de questions. Si le Café héberge en son sein le forum de l’opération Microsoft Office 2007 gratuite pour les enseignants c’est que l’offre est sans entourloupe. Si le Café ne fait pas mention de documents critiques vis-à-vis de son partenaire alors il n’y a pas matière à débat. Si le Café parle peu ou pas du logiciel libre, c’est que sa présence et son utilité doivent être scolairement négligeables[1].

Et si, comme aujourd’hui, le Café se décide néanmoins à l’évoquer ne serait-ce qu’à la marge et implicitement, c’est pour en donner une image où j’ai eu tant et si bien du mal à le reconnaître que je n’ai pu m’empêcher de mordre à l’hameçon et réagir, quitte à fournir de nouvelles armes à ceux qui aiment à me faire passer pour un agité, quitte aussi à donner un énième coup d’épée dans l’eau.

Il y a une semaine avait lieu à Hong-Kong le quatrième Forum mondial des enseignants innovants organisé et donc financé de A à Z par Microsoft. Ce forum était ainsi présenté sur le communiqué de presse : « 250 enseignants, administrateurs d’école et responsables d’éducation en provenance de 64 pays à travers le monde se rassemblent pour récompenser l’excellence en matière d’éducation (…) L’Innovative Teachers Forum s’inscrit dans le programme Partenaires en apprentissage de Microsoft (Partners in Learning), une initiative internationale dans le cadre du projet Unlimited Potential conçue pour rendre la technologie plus accessible aux écoles, à stimuler des conceptions innovatrices de l’éducation et à fournir aux éducateurs les outils pour gérer et mettre en oeuvre des changements. Depuis sa création en 2003, le programme Partenaires en apprentissage a bénéficié à plus de 123 millions de professeurs et d’étudiants dans 103 pays. Microsoft apporte un soutien financier continu à cette initiative depuis déjà cinq ans, et l’investissement d’une durée de dix ans atteint presque 500 millions USD, ce qui témoigne de l’engagement de la société à rendre la technologie plus adaptée et plus accessible à chacun grâce à des programmes, des formations et des partenariats de licence abordables. »

Le Café Pédagogique était bien entendu présent et y avait envoyé, c’est l’expression employée, l’une de ses « journalistes » Monique Royer. Le 3 novembre dernier elle rédigeait sur le blog dédié à l’évènement un billet titré Honni soit qui mal y pense que je me suis permis de commenter ci-dessous.

(…) Dans ce décor sans limites, la délégation française se pose sur une terrasse. Et tandis que les yeux sont baignés dans la magnifique vue, les débats s’engagent, plus prosaïques. Puisque nous sommes en terre de Chine, résumons-le ainsi : Microsoft est il un dragon dévoreur de système éducatif qui cherche à prospérer encore et sans partage ?

Je dois manquer d’humour parce que, Chine ou pas, j’ai beaucoup de mal à croire que le débat ait pu se résumer à cette question qui n’appelle qu’une seule réponse possible pour le clore aussitôt. Forçons le trait jusqu’à la caricature pour déplacer la conversation et éviter de toucher aux réels enjeux. C’est la même posture adoptée par le Directeur des partenariats éducation chez Microsoft France en réponse à mon billet sur l’association d’enseignants Projetice.

Pour les non initiés à ce type de querelle, il faut mentionner que cette question est vive dans les milieux associatifs d’enseignants.

Navré de vous contredire mais non, je ne crois pas que la question ainsi posée intéresse le moins du monde « les milieux associatifs d’enseignants », tout simplement parce qu’à ma connaissance personne ne voit Microsoft comme « un dragon dévoreur de système éducatif qui cherche à prospérer encore et sans partage ».

Quant au début de votre phrase, il eut été peut-être plus judicieux encore d’écrire « Pour les non initiés à ce type de querelle stérile », l’effet souhaité n’en aurait été alors que plus accentué…

Mais redevenons un peu sérieux. Il y a bien quelques questions à se poser mais elles sont d’une toute autre envergure. Par exemple, en référence à un récent billet : l’école doit-elle poursuivre un objectif de démocratisation du savoir et des compétences, de partage des connaissances et de coopération dans leur mise en œuvre, d’autonomie et de responsabilité face aux technologies, du développement du sens critique et de l’indépendance envers les pouvoirs de l’information et de la communication ?

Nous voici d’un coup assez loin des « querelles d’initiés »…

Toujours est-il que si vous jugez cette question d’importance alors, et telle sera mon hypothèse, il est difficile de ne pas rencontrer un jour ou l’autre le logiciel libre et sa culture. C’est ce que pensent nos amis du Département de l’instruction publique du Canton de Genève et bien d’autres acteurs éducatifs derrière eux pour qui cette rencontre fut si ce n’est comme une évidence tout du moins allant dans le sens d’un certain bon sens.

Entendons-nous bien, le logiciel libre n’est bien entendu pas LA solution mais il participe assurément à poursuivre les objectifs décrits ci-dessus. C’est pourquoi, contre vent et marée mais avec un certain enthousiasme, nous travaillons au quotidien à créer des conditions favorisant cette rencontre entre le logiciel libre et l’école, qui par delà leurs spécificités sont selon nous faits pour avancer ensemble.

Et c’est à mon avis ici qu’intervient Microsoft. Non seulement la société Microsoft ne répond que trop imparfaitement aux objectifs mentionnés mais elle a fortement tendance à consciemment ou non retarder cette fructueuse, pour ne pas dire « naturelle », rencontre. Un retard qui s’accompagne d’un frein si d’aventure cette rencontre avait malgré tout bien lieu. Ce ne serait pas bien grave si il ne s’agissait que de la praticité et du confort de tel ou tel logiciel, ça l’est peut-être plus si l’on se place dans le vaste cadre de ma question exposée plus haut.

Ce dernier paragraphe mériterait bien sûr précisions, développements et arguments. Gageons que vous ne serez pas d’accord. Très bien, ouvrons le débat mais de grâce oublions les dragons dévoreurs d’enfants !

Deux points sont dénoncés par les défenseurs du libre. Le premier touche au mode de commercialisation des ordinateurs qui sont quasi systématiquement équipés du système Windows et contraignent les acheteurs à l’acquérir et l’utiliser.

Tout à fait, et merci d’évoquer le problème. Cela s’appelle de la vente liée. Il est vrai que les « défenseurs du libre » ont été parmi les premiers à souligner la situation et à agir en conséquence (tout comme la question des brevets logiciels en Europe, des DRM, des lois DADVSI et aujourd’hui Hadopi, sauriez-vous nous expliquer pourquoi ?)

Mais cela nous concerne tous et il n’est pas étonnant de retrouver également des associations de consommateurs dans la bataille.

La réponse pour ce type d’argument est plutôt une nuance : la plupart des acheteurs ne sont pas des utilisateurs avertis de l’informatique, ils ont le choix entre deux systèmes Microsoft et Mac qui leur permet de se servir de leur ordinateur sans se préoccuper de programmation complexe.

Nos initiés (ou utilisateurs avertis) sont vraiment d’étranges personnages. Quand il ne s’engagent pas dans de vaines querelles, c’est pour mieux s’adonner à leur passe-temps favori : la programmation, si possible complexe.

Je sais bien que le Café Pédagogique n’est malheureusement pas le meilleur média pour se tenir au courant des avancées du logiciel libre mais quitte à jouer les journalistes TICE autant se mettre un peu à jour.

« Les logiciels dits libres ont atteint aujourd’hui un niveau de maturité technique qui en fait une alternative fiable, stable, adaptable et pérenne aux logiciels dits propriétaires ». Telle est l’introduction de la récente directive du Département de l’instruction publique du Canton de Genève. Sachant que les « systèmes Microsoft et Mac » sont bien propriétaires, j’ai le plaisir de vous annoncer qu’on se retrouve avec un troisième choix.

Ce troisième choix c’est donc celui du logiciel libre. Son niveau de maturité est tel qu’il postule aujourd’hui sans attendre à se retrouver lui aussi sur les postes de travail de nos élèves et ce jusqu’au système d’exploitation où GNU/Linux fera d’autant mieux l’affaire que certaines autorités compétentes déconseillent sagement de passer à Windows Vista.

Il est vrai que le changement passe souvent par une période de perturbation liée à ses habitudes antérieures mais il sera d’autant mieux accepté qu’il aura été explicité et justifié. La directive citée plus haut dit encore : « Lors des choix de solutions informatiques pédagogiques, les produits sous licence libre et les standards ouverts sont choisis par défaut. Tout choix de solutions propriétaires devra être dûment justifié par les demandeurs, en expliquant de façon détaillée les usages qui rendent indispensable l’acquisition d’un produit ou l’utilisation d’un standard non libre. » Et d’ajouter lucidement : « Les migrations importantes qui sont prévues seront annoncées suffisamment à l’avance pour permettre l’accompagnement nécessaire au changement. »

Une fois de plus il ne s’agit pas ici de faire table rase de l’existant pour s’en aller vers le « tout libre ». Mais, au nom d’une certaine pluralité, puissions-nous faire en sorte que de telles propositions soient elles aussi évaluées chez nous ?

Le deuxième point porte sur la politique de Microsoft en éducation, en particulier sur son programme « partners in learning » qui soutient des projets et des associations ou encore sur la mise à disposition gratuite de suites Office pour les enseignants, et se focalise donc sur une supposée recherche d’hégémonie, voire de captation de la firme.

J’ai déjà eu l’occasion d’évoquer ce programme « partners in learning » qui en France ne voulait pas dire son nom.

Pour ce qui concerne la mise à disposition gratuite de la suite MS Office, l’explication n’est pas philanthropique mais toute entière contenue dans le rapport Becta Microsoft Office 2007 et Windows Vista que le Café Pédagogique n’a d’ailleurs pas cru bon de retenir dans son fil d’informations, privant ainsi de nombreux enseignants de la possibilité de s’interroger sur le pourquoi du comment d’un tel « cadeau ». C’est d’autant plus dommage que le Café n’ignore pas le Becta (voir l’Expresso de lundi dernier). De là à penser que le Café Pédagogique, soutenu par Microsoft, ne s’intéresse plus au Becta dès lors que ce dernier se montre critique vis-à-vis de son partenaire « premium », il n’y a qu’un pas que je franchis allègrement.

Quant à votre fin de phrase, je me focalise bien moins sur la « supposée hégémonie captive de la firme » que sur le fait qu’une rédactrice du si réputé Café Pédagogique évite de se poser les bonnes questions en feignant de croire que certains se focalisent sur un Microsoft tellement décrié qu’on a presqu’envie de lui venir en aide, surtout quand il permet gracieusement à des enseignants du monde entier de se rencontrer.

Les associations, les animateurs des projets soutenus pointent comme réponse le faible soutien des pouvoirs publics, du ministère de l’éducation notamment. Pour vivre, même en reposant sur le bénévolat, les associations ont besoin d’argent pour financer leur structure, leur site, bref, tout ce qui concrétise, solidifie le projet. Leur survie repose souvent sur une quête perpétuelle de financement auprès des collectivités locales, d’entreprises, de fondations. Idem pour les projets, les innovations pédagogiques ; pour se développer elles ont besoin d’une reconnaissance, de matériels, de logiciels, parfois cruellement absents dans l’institution. Microsoft se positionne comme un financeur potentiel pour des partenaires qui bien souvent ont d’autres financements.

Quelle est la part de Microsoft dans le financement du Café Pédagogique ? J’ai souvent posé la question mais n’ai jamais eu de réponse…

Pour qu’on en arrive là l’Institution doit effectivement procéder à son autocritique. Toujours est-il que si l’on vous suit c’est exclusivement pour son argent que Microsoft intéresse les associations. Il n’y aurait donc pas d’adhésion à un projet commun, à des valeurs communes… ou plus modestement à la qualité de leurs logiciels. Cela leur aurait fait plaisir pourtant, histoire de se sentir moins « vaches à lait ».

« Survie », « quête perpetuelle », besoins cruciaux »… Il y a visiblement extrême urgence ! Et pour nous tirer de là, reposons-nous sur les épaules d’un Microsoft, véritable sauveur d’associations d’enseignants en péril abandonnées lâchement par leurs institutions ! Merci donc à Microsoft de nous offrir cette manne financière providentielle que d’autres ne peuvent ou ne veulent nous proposer.

Il y aurait d’ailleurs beaucoup à dire sur la provenance de cette manne financière. Quand on soutire des sommes considérables aux pouvoirs publics du monde entier, on a beau jeu par la suite d’en redistribuer une infime partie à ceux qui nous ont enrichis.

L’équation est certes un peu plus complexe que cela mais pourquoi ne pas procéder autrement ? Par exemple en s’appuyant massivement sur le logiciel libre et avec l’argent ainsi économisé soutenir non seulement les associations d’enseignants mais également un véritable développement logiciel local, ouvert et adapté aux besoins du terrain. Ce ne sont pas les AbulEdu, Adullact, EducOO, Ofset, Scideralle et autres qui me contrediront.

Ceci dit, et pour tout vous avouer, Framasoft se trouve aujourd’hui également dans la difficulté financière. Il n’empêche qu’on aura tenu bon pendant pas mal d’années et que l’on ne désespère pas de trouver des soutiens moins, comment dire, « problématiques ».

Le partenariat tournera d’autant moins à la main mise que les données du marché sont claires et le financement multiple.

Cette dernière phrase que l’on dirait extraite d’un conseil d’administration d’une grande entreprise, vient fort à propos nous rappeler la nature même de Microsoft. Si l’école n’était qu’un marché comme un autre nous n’en ferions pas grand cas.

(…) Une rencontre entre enseignants innovants du monde entier, d’Israël, de Thaïlande, d’Australie, d’Autriche, du Sénégal, du Brésil, des Seychelles et de tant de pays différents, n’est elle pas à même de changer les idées, les opinions les plus tranchées. En regardant ce que font les autres, en écoutant leur expérience, leurs doutes, leurs solutions, dans ce voyage dans les mondes de l’éducation, le débat perd de son acuité.

Je ne vous le fais pas dire. Et Microsoft de s’en frotter les mains. Bingo, c’est à n’en pas douter le type de témoignages que la société souhaitait susciter.

Et puis, « ce qui est important pour les enseignants c’est la pédagogie. Pour innover, on a besoin d’outils qui nous conviennent. Les querelles risquent plus de freiner l’innovation pédagogique, qu’autre chose », ainsi Annie clôt le débat (…).

Il se trouve que c’est à peu près le même discours que nous sert Microsoft depuis des années. Cette symbiose finale entre l’enseignant et son partenaire fournit effectivement une excellente conclusion.

Quant à « l’innovation » que Microsoft et le Café citent ad nauseam, il tend à devenir un mantra vidé de toute substance et qui se suffit à lui-même. Je n’arrive plus vraiment à comprendre ce que vous y mettez dedans, si ce n’est que les enjeux dépassent de très loin la question des « outils qui nous conviennent ».

Soit, allons-y, restons sur ce mot et répétons nous aussi notre propos. L’innovation peut-elle venir d’une école résolument décidée à poursuivre un objectif de démocratisation du savoir et des compétences, de partage des connaissances et de coopération dans leur mise en œuvre, d’autonomie et de responsabilité face aux technologies, du développement du sens critique et de l’indépendance envers les pouvoirs de l’information et de la communication ?

J’en suis intimement persuadé. Et vous ?

Notes

[1] Crédit photo : Kevinmcgrewphoto.com (Creative Commons By)




Quand l’éducation suisse quitte sa neutralité en faveur du logiciel libre

Fedewild - CC by-saTransition vers les standards ouverts et les logiciels libres, tel est le titre d’une récente directive du Département de l’instruction publique (DIP) du Canton de Genève[1], dans le cadre de son orientation stratégique en matière de logiciels informatiques (24 juin 2008).

Après un bref rappel de la définition d’un logiciel libre (selon la Free Software Foundation) et d’un standard ouvert (selon la Commission européenne), voici quelques extraits de ce que l’on peut y lire :

« Les logiciels dits libres ont atteint aujourd’hui un niveau de maturité technique qui en fait une alternative fiable, stable, adaptable et pérenne aux logiciels dits propriétaires »

Il a donc été décidé d’opérer une large migration au motif que :

« L’information gérée par l’État est une ressource stratégique dont l’accessibilité par l’administration et les citoyens, la pérennité et la sécurité ne peuvent être garanties que par l’utilisation de standards ouverts et de logiciels dont le code source est public.
Par ailleurs, même s’ils ne sont pas forcément gratuits, les logiciels libres permettent de réaliser des économies substantielles sur l’acquisition des licences. »

Par ailleurs :

« L’utilisation d’outils et de standards libres permet de garantir la sauvegarde et le partage des documents produits par les enseignant-e-s. La possibilité de fournir aux élèves pour leur usage externe à l’école les logiciels utilisés pour l’apprentissage représente un atout pédagogique et social d’importance.
Une large communauté éducative mondiale s’est développée autour des licences libres, produisant des ressources librement partagées adaptées aux besoins spécifiques de l’enseignement.
L’apprentissage est favorisé par des outils dont on peut étudier le fonctionnement. »

Ce qui donne, entre autres, les modalités d’applications suivantes :

« Lors des choix de solutions informatiques pédagogiques, les produits sous licence libre et les standards ouverts sont choisis par défaut.
Les migrations importantes qui sont prévues seront annoncées suffisamment à l’avance pour permettre l’accompagnement nécessaire au changement.
Tout choix de solutions propriétaires devra être dûment justifié par les demandeurs, en expliquant de façon détaillée les usages qui rendent indispensable l’acquisition d’un produit ou l’utilisation d’un standard non libre. »

Conclusions similaires à celles du fameux rapport Becta.

On notera également la présence d’une autre directive du DIP sur la Diffusion interne de documents dont voici quelques unes des préconisations :

Tout document qui ne demande pas une modification par le destinataire doit être diffusé en format PDF (Portable Document Format).
Pour les documents qui doivent être modifiés par le(s) destinataire(s), le format ouvert OpenDocument doit être privilégié. Ce format constitue en effet la garantie que le document pourra être relu en tout temps indépendamment du logiciel utilisé.

Cet engagement vers le Libre du DIP est fort bien raconté par Marco Gregori dans un article de la gazette interne du mois dernier (Les Clefs de l’École) intitulé Logiciels libres et pédagogie sans frontières. Il a de plus l’excellente idée d’insister sur un argument de poids que de trop nombreux enseignants ne peuvent ou ne veulent encore entendre : l’enjeu du logiciel libre à l’école est bien moins technique (ou financier) que pédagogique.

« Aux yeux du grand public, un logiciel libre se définit avant tout par sa gratuité. Pour le monde de la pédagogie, il est bien plus que ça: à la fois outil de transmission de la connaissance – notamment, il est vrai, par ses coûts réduits – et symbole même du savoir à partager sans barrières. »

Puis plus loin :

« Il y a quelques mois, le Service Ecoles-Médias du DIP publiait un texte dans lequel il soulignait la grande convergence entre l’éthique sur laquelle se fonde le mouvement libre et le système éducatif public: Dans sa volonté de rendre accessibles à tous les outils et les contenus, le « libre » poursuit un objectif de démocratisation du savoir et des compétences, de partage des connaissances et de coopération dans leur mise en œuvre, d’autonomie et de responsabilité face aux technologies, du développement du sens critique et de l’indépendance envers les pouvoirs de l’information et de la communication.
Démocratisation du savoir, autonomie, sens critique, autant de principes qui figurent dans la loi genevoise… sur l’instruction publique. Exagérée, la comparaison ? Pas vraiment si l’on considère les quatre critères majeurs d’un logiciel libre: il doit pouvoir être diffusé, utilisé, étudié et amélioré librement. »

Et l’article de s’achever sur un passage en revue des implications pédagogiques de ces quatre libertés que je vous invite vivement à lire et faire lire.

Bon, je ne voudrais pas donner l’impression de me répéter mais avec l’Angleterre ou encore l’Espagne, ça commence à faire pas mal de voisins qui, frappés du bon sens, s’interrogent et agissent officiellement en faveur du logiciel libre et des standards ouverts à l’école.

Anne, ma sœur Anne[2], vois-tu la même volonté venir du côté de la Rue du Genelle ? Ce serait d’autant plus simple que… y’a qu’à copier nos amis suisses et britanniques 😉

Liens annexes et connexes

Notes

[1] Edit : Le titre de mon billet est non seulement un peu facile mais surtout un peu maladroit puisqu’il laisse à penser qu’il s’agit de la Suisse dans sa globalité alors que seul le Canton de Genève est concerné ici (merci merinos d’avoir pointé cela et mea culpa).

[2] Crédit photo : Fedewild (Creative Commons By-Sa)




Première mention du logiciel libre dans les programmes officiels de l’Éducation Nationale

pgm-techno_logiciel-libre.png

Dans la série « la route est longue mais la voie est libre », voici une nouvelle, parue cet été, qui n’a semble-t-il eu aucun écho sur la Toile (ou alors c’est que j’ai mal cherché).

« Dans le cadre du cours de technologie, l’utilisation des logiciels d’application (traitement de textes, tableur, messagerie, navigateur…) sont notamment utilisés dans le contexte des travaux conduits en équipe (recherches, comptes rendus, synthèses périodiques, déroulement du projet…). On pourra présenter les solutions alternatives (logiciel libre, logiciel propriétaire) »

C’est en effet ainsi que pour la première fois (du moins à ma connaissance) il est fait mention explicite du « logiciel libre » dans un programme officiel d’enseignement (pour les non initiés ce programme constitue en quelques sorte « le cahier des charges » du prof dans sa matière).

On pourra toujours faire la fine bouche :

  • Il n’est cité qu’une seule fois
  • Et il ne s’agit que d’une discipline : la Technologie (dont on sabre par ailleurs la place faite à l’informatique en tant que telle)
  • Et pour un seul niveau : la Sixième
  • Et uniquement dans la colonne commentaires du programme
  • Et entre parenthèses
  • Et ce n’est qu’une invitation (« on pourra… »)
  • Et puis ce n’est pas si clair que ça de son libellé (des alternatives à quoi exactement ?)

Il n’empêche que c’est tout de même un premier pas qui devrait selon moi en appeler d’autres (plus assumés et moins discrets) dans un avenir proche.

Vous trouverez cette mention en page 15 du programme de Technologie au collège (Bulletin officiel spécial n° 6 du 28 août 2008).

On notera par ailleurs dans ce même programme décidément bien audacieux une autre grande première en la présence page 19 du mot « copyleft » dans l’expression « Propriété intellectuelle. Copyright et copyleft. » directement dans le champ Connaissances cette fois-ci (pour le niveau Cinquième).

pgm-techno_copyleft.png

Si un prof de techno passe dans les parages qu’il n’hésite surtout pas à nous livrer son petit témoignage 😉

PS : Merci à Charlie Nestel (APRIL) de m’avoir fait remarquer cela.




Longue vie au bébé de Gwen Stefani

Dennis Stefani - CC by-nc-ndAyant constaté que ce blog avait du mal à attirer de jeunes lecteurs, j’ai décidé d’ouvrir une section people en commençant ici par Gwen Stefani chanteuse semble-t-il assez populaire chez certains d’entre eux.

Plus sérieusement il s’agit juste de souligner la démarche originale de ne pas réserver pour un pont d’or la première photographie publique de son nouvel enfant né l’été dernier et prénommé Zuma Nesta Rock Rossdale (sic !) à un magazine (comme c’est devenu la lucrative coutume) mais de l’offrir à tout le monde via son site internet et une licence Creative Commons (ici la By-Nc-Nd). J’ajoute que si j’en juge par le nom de l’auteur de l’image, Dennis Stefani, on reste en famille et un peu d’intimité dans ce monde de voyeurs ne peut pas faire de mal.