L.L. de Mars a besoin de nous !

L.L. de Mars - Licence Art LibreVous connaissez Framasoft ? Alors vous devez être également un tant soit peu familier avec « nos » pingouins, qui donnent cette identité visuelle particulière à notre réseau de sites et de projets. Rien que sur ce blog, il y en a trois qui squattent le haut et le bas de page en permanence.

En fait, ce ne sont pas du tout nos pingouin mais ceux de l’artiste L.L. de Mars. Ils proviennent tous d’une BD sobrement intitulée « Pingouins » parue en 2003 (et rééditée depuis chez nos amis d’InLibroVeritas).

Un pur pillage d’auteur vous diront ces messieurs d’Hadopi. Oui mais non, parce que L.L. de Mars avait choisi de placer cette oeuvre sous Licence Art Libre, autorisant, voire même favorisant, ces joyeux « détournements ». Bravo pour le talent et merci pour ce choix. Framasoft vous « doit » beaucoup.

Aujourd’hui L.L. de Mars se trouve dans une certaine difficulté, pour ne pas dire une difficulté certaine. Et il fait pudiquement appel à vous dans un message que je me suis permis de recopier ci-dessous.

Il ne demande pas la lune, juste un peu de matériel afin de poursuivre ses activités.

La dernière fois que j’avais été en contact avec lui, c’était il y a presque un an, pour lui demander si il acceptait de nous dessiner gracieusement un petit quelque chose original pour notre campagne de soutien. Et, comme par le passé, il avait gentiment accepté.

C’est ce dessin qui illustre ce billet, et il est difficile de ne pas y voir dans sa légende une certaine (mauvaise) ironie du sort…

La déchetterie colorée

URL d’origine du document

Tiens, je viens de descendre d’encore un échelon au-dessous du seuil de pauvreté. C’est toujours possible, j’avais fini par l’oublier, foutu étourdi que je suis.

Les services sociaux (les Nouveaux Services Sociaux, avec encore plus d’agents détergents et plus riches en viande) ont jugé que le métier des artistes était si certainement lucratif que ce n’était peut-être pas la peine de leur donner 400 euros par mois pour vivre ; le tiers de mon RSA m’est donc supprimé, zou. « C’est forfaitaire, c’est comme ça, veuillez agréer la porte et désinfectez derrière vous »; on m’avait souvent signifié que j’étais un parasite, me voilà promu pou à la diète.

Autant dire que la question qui me taraudait si souvent « J’investis dans un pot de pigment rouge ou dans un pot de pigment jaune ce mois-ci ? » ne se posera plus, je risque de travailler assez longtemps en noir et blanc.

Bouffer, m’habiller et payer mon eau avec 300 balles par mois, je saurai faire, j’en ai vu d’autres. Mais travailler, je vois pas comment je vais continuer une fois écrémés les derniers fonds d’encre et ruinés les derniers pinceaux.

Soudain, notre ami cria « Au secours ».

Alors voilà, je vous demande de fouiller dans vos propres tiroirs et de harceler vos potes qui bossent dans des magasins de fournitures où sont considérés comme invendables tous les produits un peu endommagés : pigments ouverts, liants entamés, mediums, huiles, colle de peau de mérou, acryliques, aquarelles, pastels, crayons, encre, toile, papier, bref tout le matériel qui traîne chez vous dont vous ne vous servez pas, les trucs qui dorment dans des placards, les couleurs entamées qu’on trouve finalement à chier, les pinceaux trop gros, trop petits, les crayons trop gras, les papiers trop poreux ou trop lisses, les pastels du gosse qui préfère la drogue, les résolutions « demain je me mets à la gravure » oubliées avec le matériel depuis 1987, n’importe quoi qui vous semble insignifiant mais qui me permettra de bosser encore quelques années.

Merci, L.L. d.M.

Envoyez vos dons de matériel à : L.L. de Mars – 1, rue Cdt Charcot – 35000 Rennes

Edit 1 du 28 septembre : Vous trouverez dans les commentaires ci-dessous, de plus amples informations sur les modalités du soutien.

Edit 2 du 26 octobre : L.L. de Mars a bien reçu notre colis (comme en témoigne la photo ci-dessous) et vous remercie tous.

L.L. de Mars - Soutien - Framasoft




Quand Educnet modifie (enfin) son information sur le Libre

Rolands Lakis - CC byEn janvier dernier, j’avais rédigé un billet où je m’étonnais que sur Educnet, le site officiel de l’Éducation nationale consacré aux nouvelles technologies, on puisse lire des conseils qui… déconseillaient l’usage des logiciels et des contenus libres à ses visiteurs[1].

J’avais d’ailleurs pris soin de conserver des copies d’écran des pages incriminées (page 1 sur « l’Open Source » et page 2 sur « l’Open Content »).

Les raisons invoquées étaient assez anachroniques, si l’on considère les missions et objectifs de l’éducation.

Pour rappel, cela donnait ceci pour le logiciel libre :

Il est déconseillé d’utiliser ce type de logiciel si les élèves, leurs enseignants, voire l’établissement scolaire souhaitent garder un monopole d’utilisation des travaux de développement du logiciel libre. Les principes de l’Open Source obligent les développeurs à garantir un accès libre aux améliorations du code source du logiciel libre.

Et cela pour les ressources éducatives libres :

Il est déconseillé au milieu scolaire d’utiliser ce type de contenus si on envisage de valoriser ses travaux en s’associant avec un partenaire privé pour une exploitation commerciale.

De drôles de conseils donc, symptomatiques de ce que j’appellerais une « mentalité propriétaire » encore trop présente et prégnante au sein du ministère de l’Éducation nationale.

J’avais bien entendu envoyé un mail à Educnet pour signifier mon désaccord avec cette manière de présenter les choses. Aucune réponse.

Par contre j’avais reçu en privé quelques messages solidaires d’enseignants travaillant de près ou de loin avec Educnet, m’assurant qu’ils allaient tenter en interne de faire bouger les choses. Mais que je ne vienne surtout pas citer publiquement leurs noms, avaient-ils ajouté, le libre n’étant pas toujours bien vu en haut-lieu dans la cellule TICE du ministère !

No comment…

Toujours est-il que je constate aujourd’hui que ces pages ont été mises à jour (j’imagine cet été, car en juin dernier cela n’avait toujours pas bougé). La seconde page sur « l’Open Content » ayant d’ailleurs été supprimée pour être fondue dans la première.

Qu’il s’agisse de mon billet (en première page Google sur le mot clé « Educnet »), des agissements discrets de mes collègues, ou tout simplement d’une soudaine prise de conscience des éditeurs du site, je suis ravi de constater une certaine évolution, pour ne pas dire une évolution certaine.

Il y a certes encore quelques inexactitudes :

Si les utilisateurs peuvent modifier le contenu ou l’intégrer dans une nouvelle œuvre dite seconde, cela n’est possible qu’avec l’autorisation expresse de l’auteur initial.

Mais c’est sans commune mesure avec la version précédente. La méfiance initiale a disparu, les licences Creative Commons sont citées et, c’est vous dire, on trouve même un lien vers l’encyclopédie Wikipédia 😉

Afin de développer à un moindre coût un projet informatique ou de mener à bien une création numérique, des élèves et leur enseignant peuvent utilement utiliser des logiciels libres ou des œuvres « libres » les modifier ou les améliorer afin de les adapter à leurs besoins. Ils peuvent à leur tour contribuer au développement d’un vaste fond commun de ressources libres.

Quant aux conseils, voici leur nouvelle version :

Dans un souci pédagogique, il est intéressant de travailler avec les élèves sur la notion d’œuvre, d’auteurs, de partage et de co-construction du savoir.

Sur un plan strictement juridique, il suffit de vérifier le contenu des licences sur lesquelles reposent les ressources libres, logiciels ou créations numériques.

Merci Educnet. Désolé pour ce billet qui pavoise sur un ton donner de leçons légèrement condescendant, mais, en tant que membre de la maison, cela me faisait vraiment mal au coeur de lire les informations et arguments de la version antérieure.

Nous sommes certes encore loin d’une prise de position volontaire et assumée en faveur des logiciels et des ressources libres, mais les conseils qui déconseillent ont heureusement bel et bien disparus.

Rendez-vous à la prochaine mise à jour… .

Notes

[1] Crédit photo : Rolands Lakis (Creative Commons By)




La liberté ambigüe du paramétrage par défaut

Manuel Cernuda - CC byMon lycée a, depuis un certain temps déjà, opté pour un déploiement massif de la suite bureautique libre OpenOffice.org. Sauf que notre informaticien l’installe sur les postes en modifiant systématiquement l’option du format d’enregistrement « par défaut », substituant au format natif et ouvert ODF la famille de formats fermés bien connus de la suite Microsoft Office (le .DOC pour Word, le .XLS pour Excel et le .PPT pour Powerpoint).

Et lorsque je lui signifie, outré, mon mécontentement, il me répond qu’il convient de ne surtout pas perturber les enseignants, qui ont tous MS Office chez eux, et qui sont habitués à travailler dessus depuis des années (« Tu comprends, sinon ils vont rentrer à la maison avec leurs fichiers ODF dans leur clé, cliquer dessus pour ouvrir le document et… ça va être le bordel parce qu’aucune application ne sera trouvée par le système. Ils vont râler, m’assaillir de questions et c’est bibi qui assurera la hotline ! »).

Et c’est ainsi que l’on passe à côté de toute la problématique des formats (excellente porte d’entrée pour engager une discussion plus générale sur « le libre »). En tirant un peu le trait, on pourrait presque dire que l’on ne réalise finalement ici qu’une « fausse » migration, ou tout du moins que l’on s’est arrêté au milieu du chemin.

Fin de l’anecdote qui n’avait pour but que d’introduire le sujet (et la traduction) du jour : le paramétrage par défaut.

Lorsqu’on découvre un logiciel (ou carrément un système d’exploitation) pour la première fois, un certain nombre de choix ont été réalisés pour nous, afin, en théorie, de nous faciliter la tâche pour que nous soyons de suite opérationnels. Mais ces choix ne sont pas forcément neutres. D’abord parce que nous sommes tous différents (« l’utilisateur lambda » n’existe pas). Mais aussi, voire surtout, parce que nous savons fort bien qu’une forte majorité d’utilisateurs, pour de multiples raisons (inertie, crainte…) ne modifieront jamais ces options de démarrage.

Vous êtes un utilisateur désormais aguerri de GNU/Linux. Vous avez choisi votre distribution (Ubuntu, Mandriva, Fedora…), vous avez choisi votre environnement graphique (GNOME, KDE…), vous avez configuré le tout aux petits oignons en rivalisant d’esthétisme et d’ergonomie pour vous offrir un magnifique bureau personnalisé (illustration[1]). Vous naviguez sur un Firefox bourré d’extensions toutes plus utiles les unes que les autres eu égard à vos propres besoins et intérêts… Alors, félicitations, vous baignez dans l’univers culturel numérique de la richesse, de la diversité et de l’autonomie. Vous y êtes même tellement habitué que vous avez certainement oublié le nombre de paramétrages par défaut qu’il vous aura fallu lever pour arriver à cette situation qui est la vôtre aujourd’hui.

Parce que votre univers est malheureusement passablement éloigné de celui de Madame Michu (qui, je suis d’accord, n’existe pas non plus). Elle a acheté un ordinateur avec « par défaut » Windows à l’intérieur, dans lequel se trouvait « par défaut » Internet Explorer (page d’accueil Microsoft, Google ou FAI, inchangée), Outlook Express, Windows Media Player etc. et elle s’y tient. Elle s’y cramponne même, en résistant dur comme fer si jamais on s’en vient lui montrer, avec pourtant moultes précautions, qu’un « autre monde informatique est possible » (dans ce contexte là j’en arrive même parfois à me demander, un brin provocateur, si ce n’est pas « l’utilisateur par défaut » qu’il convient de paramétrer plutôt que ses logiciels !). C’est frustrant et dommage, parce que si il y a paramétrage par défaut, cela signifie également qu’il y a liberté de changer ces paramètres. Comme dirait l’autre, la liberté ne s’use que si l’on ne s’en sert pas…

Mais je m’égare, puisqu’il s’agissait juste de présenter l’article ci-dessous qui, bien que ne se souciant nullement des conséquences du paramétrage par défaut sur le logiciel libre, nous offre ici un exposé original et intéressant.

Remarque (à la lisière du troll) : C’est peut-être aussi là que réside le succès d’Ubuntu, dont la relative absence de choix à l’installation (un seul bureau, un seul logiciel par application, etc.) a grandement rassuré les nouveaux venus issus de Windows. De là à affirmer qu’Ubuntu est devenue « la distribution par défaut de l’OS GNU/Linux », il n’y a qu’un pas que je me garderais bien de franchir 😉

Le triomphe du « par défaut »

Triumph of the Default

Kevin Kelly – 22 juin 2009 – The Technium
(Traduction Framalang : Olivier et Julien R.)

Peu reconnu, le « par défaut » est l’une des plus grandes inventions de l’ère moderne. « Par défaut » est un concept technique introduit par l’informatique dans les années 1960 pour désigner les réglages pré-sélectionnés (comme par exemple dans « Ce programme accepte par défaut les dates au format jj/mm/aa, et non jj/mm/aaaa »). De nos jours, la notion de réglage par défaut dépasse le simple cadre de l’informatique et s’est répandue dans la vie de tous les jours. Aussi insignifiant que cela puisse paraître, l’idée de réglage par défaut est fondamentale pour « The Technium » (NdT : le livre qu’est en train de rédiger l’auteur dont cet article fait partie).

Difficile de concevoir aujourd’hui une époque où le « par défaut » n’existait pas. Mais le « par défaut » n’a gagné en popularité qu’à mesure que l’informatique s’est démocratisée ; c’est l’héritage de systèmes technologiques complexes. Le « par défaut » n’existait pas sous l’ère industrielle. À l’aube de l’ère moderne, quand les ordinateurs plantaient souvent et qu’entrer les variables était un vrai calvaire, une valeur par défaut était la valeur que le système s’assignait automatiquement si le programme échouait ou s’il était démarré pour la première fois. C’était une idée brillante. Sauf si l’utilisateur ou un programmeur prenait la peine de le modifier, le réglage par défaut régnait, assurant ainsi que le système hôte fonctionne. Chaque produit électronique et chaque logiciel était livré dans sa configuration par défaut. Les réglages par défaut répondent aux normes attendues par les acheteurs (par exemple la tension des appareils électriques aux États-Unis), ou à ce qu’ils attendent d’un produit (les sous-titres désactivés pour les films), ou encore aux questions de bon sens (anti-virus activé). La plupart du temps les réglages par défaut satisfont les clients, et ils ont maintenant envahi tout ce qui est personnalisable : automobiles, assurances, réseaux, téléphones, assurance maladie, cartes de crédit, etc.

En effet, chaque objet contenant un tant soit peu d’intelligence informatique (c’est à dire tout équipement moderne) est paramétré par défaut. Ces présélections sont autant de partis pris implantés dans le gadget, le système ou l’institution. Mais les réglages par défaut ne sont pas que des hypothèses silencieuses matérialisées dans tout objet manufacturé. Par exemple, tous les outils manuels sont faits, par défaut, pour les droitiers. Faire l’hypothèse que l’utilisateur sera droitier étant simplement normal, pas besoin d’en faire étalage. De même, la forme des outils est généralement faite pour des mains d’hommes. Mais ça ne se limite pas qu’aux outils : les premières automobiles étaient construites sur l’hypothèse que le conducteur serait un homme. Pour toute chose manufacturée, le constructeur doit faire des hypothèses sur ses clients potentiels et leurs motivations ; ces hypothèses trouvent naturellement leur place aussi dans tout ce qui est technologique. Plus le système est vaste, plus le constructeur doit faire des hypothèses. En examinant attentivement une infrastructure technologique particulière vous pouvez deviner les hypothèses cachées dans sa conception. Ainsi, on retrouve dans des domaines aussi variés que le réseau électrique, le système ferroviaire, les autoroutes ou l’enseignement certaines caractéristiques du citoyen américain : optimisme, importance de l’individu et penchant pour le changement.

Mais, alors que ces choix arbitraires, communs à toutes les technologies, sont à bien des égards semblables au concept de « défaut », ce n’est plus vrai aujourd’hui et ce pour une raison essentielle : les réglages par défaut sont des hypothèses qui peuvent être modifiées. Vous ne pouvez pas adapter des outils faits pour les droitiers à l’usage des gauchers. À l’époque, l’hypothèse que le conducteur était un homme se retrouvait dans la position du siège dans les automobiles. En changer n’était pas simple. Mais ce que l’on ne pouvait faire hier est désormais permis par la technologie actuelle. En effet presque tous les systèmes technologiques d’aujourd’hui ont en commun la facilité à être rebranchés, modifiés, reprogrammés, adaptés et changés pour convenir à de nouveaux usages ou à de nouveaux utilisateurs. Beaucoup (pas toutes) des hypothèses faites ne sont pas immuables et définitives. La multiplication des paramètres par défauts et leur modularité offre aux utilisateurs un vrai choix, s’ils le désirent. Les technologies peuvent être adaptées à vos préférences et optimisées pour mieux vous correspondre.

L’inconvénient de toutes cette personnalisation, cependant, est qu’on se retrouve un peu noyé sous le choix. Trop d’alternatives et pas assez de temps (sans parler de l’envie) de toutes les tester. Ne vous-êtes vous pas déjà retrouvé paralysé par l’indécision devant les 99 variétés de moutardes sur les étalages du supermarché, ou devant les 2 536 options de votre assurance santé, ou encore devant les 36 000 coupes de cheveux différentes pour votre avatar dans un monde virtuel ? Il existe une solution toute simple à cette sur-abondance délirante de choix : les paramètres par défaut. Les « défauts » vous permettent de choisir quand choisir. Votre avatar par défaut pourrait pas exemple être un avatar quelconque, un gamin en jean par exemple. Vous pouvez vous soucier de la personnalisation plus tard. C’est un peu un choix guidé. Ces milliers de variables, de vrais choix, peuvent être guidés en optant pour un choix par défaut intelligent, un choix fait à notre place, mais qui ne nous prive pas de notre liberté de le changer dans le futur, à notre convenance. Mes libertés ne sont pas restreintes, mais sont étalées dans le temps. Quand je me sens plus à l’aise, je peux revenir sur mes préférences pour mieux les adapter, en ajouter ou en retirer, en changer ou les personnaliser. Dans les systèmes par défaut bien pensés, je conserve toujours mon entière liberté, mais les choses me sont présentées de telle sorte que je peux prendre mon temps pour faire mes choix, au fur et à mesure et quand je me sens mieux à même de les faire.

Comparez maintenant cette sur-abondance de choix à ce que vous propose un marteau, une automobile ou le réseau téléphonique des années 1950. L’utilisation de ces outils vous était imposée. Les meilleurs ingénieurs ont planché des années pour proposer une conception qui s’adapte le mieux à la majorité, de nos jours encore, certains sont des chef-d’œuvre d’ingéniosité. Si ces objets et infrastructures étaient peu modulables, ils étaient remarquablement conçus pour être utilisés par la majorité des personnes. Peut-être qu’aujourd’hui vous ne personnalisez pas plus votre téléphone qu’il y a cinquante ans, mais la possibilité existe. Et les options disponibles sont toujours plus nombreuses. Cette myriade de choix possibles reflète la nature adaptative des téléphones portables et des réseaux. Les choix s’offrent à vous quand vous faites appel à eux, ce qui n’était pas possible quand toutes les décisions étaient prises pour vous.

Les paramètres par défaut ont fait leur apparition dans le monde complexe de l’informatique et des réseaux de communication, mais il n’est pas ridicule pour autant d’envisager leur utilisation pour les marteaux, les voitures, les chaussures, les poignées de portes, etc. En rendant ces objets personnalisables, en y injectant une pincée de puces informatiques et de matériaux intelligents, nous leur ouvrons le monde des paramètres par défaut. Imaginez le manche d’un marteau qui se moulerait automatiquement pour s’adapter à votre prise en main de gaucher, ou à la main d’une femme. On peut très bien envisager d’entrer son genre, son âge, son expertise ou son environnement de travail directement dans les petits neurones du marteau. Si un tel marteau existait, il serait livré avec des paramètres par défauts pré-programmés.

Mais les paramètres par défauts sont tenaces. De nombreuses études psychologiques ont montré que le petit effort supplémentaire demandé pour modifier les paramètres par défaut est souvent de trop et les utilisateurs s’en tiennent aux pré-réglages, malgré la liberté qui leur est offerte. Ils ne prennent pas la peine de régler l’heure sur leur appareil photo, le « 12:00 » entré par défaut continue de clignoter, ou encore ils ne s’embettent pas à changer le mot de passe temporaire qui leur est attribué. La dure vérité, n’importe quel ingénieur vous le confirmera, est que souvent les paramètres par défaut restent inchangés. Prenez n’importe quel objet, 98 options sur 100 seront celles préconfigurées en usine. Je reconnais que, moi-même, j’ai très rarement touché aux options qui m’étaient offertes, je m’en suis tenu aux paramètres par défaut. J’utilise un Macintosh depuis le début, voilà plus de 25 ans, et je découvre encore des paramètres par défaut et des préférences dont je n’avais jamais entendu parler. Du point de vue de l’ingénieur, cette inertie est un signe de réussite, cela signifie que les paramètres par défaut sont bien choisis. Leurs produits sont utilisés sans beaucoup de personnalisation et leurs systèmes ronronnent doucement.

Décider d’une valeur par défaut est synonyme de puissance et d’influence. Les paramètres par défaut ne sont pas qu’un outil pour aider les utilisateurs à apprivoiser leurs options, c’est aussi un levier puissant dont disposent les fabricants, ceux qui décident de ces valeurs, pour diriger le système. Les orientations profondes que traduisent ces valeurs par défaut façonnent l’usage que l’on fait du système. Même le degré de liberté qui vous est accordé, avec les choix occasionnels que l’on vous demande de faire, est primordial. Tout bon vendeur sait ça. Ils agencent magasins et sites Web pour canaliser vos décisions et ainsi augmenter leurs ventes. Disons que vous laissez des étudiants affamés choisir leur dessert en premier plutôt qu’en dernier, cet ordre par défaut a une influence énorme sur leur nutrition.

Chaque rouage d’une technologie complexe, du langage de programmation, à l’aspect de l’interface utilisateur, en passant par la sélection de périphériques, renferme d’innombrables paramètres par défaut. L’accès est-il anonyme ? Les intentions des utilisateurs sont-elles bonnes ou mauvaises ? Les paramètres par défaut encouragent-ils l’échange ou le secret ? Les règles devraient-elles expirer à une période donnée ou le renouvellement est-il tacite ? Avec quelle facilité peut-on revenir sur une décision ? Telle décision devrait-elle être activée par défaut ou l’utilisateur doit-il la valider lui-même ? Rien que la combinaison de quatre ou cinq choix par défaut engendre des centaines de possibilités.

Prenez deux infrastructures technologiques, disons deux réseaux d’ordinateurs basés sur le même matériel et sur les mêmes logiciels. L’expérience sur les deux réseaux peut être complètement différente selon les options par défaut imposées. Leur influence est telle qu’on peut presque parler d’effet papillon. En modifiant légèrement un paramètre par défaut, on peut transformer des réseaux gigantesques. Par exemple, la plupart des plans épargne retraite, comme le plan « Corporate 401k », demandent des mensualités très basses, en partie parce qu’ils proposent un choix phénoménal d’options. L’économiste/comportementaliste Richard Thaler rapporte des expériences où les épargnants amélioraient nettement leur épargne lorsque les options étaient sélectionnées par défaut (« choix guidé »). Chacun avait la possiblité de résilier leur programme quand il le désirait et ils étaient libres de modifier leur contrat quand bon leur semblait. Mais le simple fait de passer de « souscription » à « inscription automatique » changeait complètement l’intérêt du système. On peut prendre également l’exemple du don d’organe. Si on déclarait que chacun est donneur à moins qu’il n’émette le souhait contraire, le nombre d’organes donnés augmenterait largement.

Chaque paramètre par défaut est un levier pour façonner le déploiement d’une innovation. L’élaboration d’une infrastructure à l’échelle d’un continent, par exemple, comme le réseau électrique 110V aux États-Unis, peut s’imposer à mesure qu’elle reçoit le soutien d’autres infrastructures (comme les générateurs diesels ou les lignes d’assemblage dans les usines). Ainsi il peut obtenir le suffrage nécessaire pour s’imposer face à une technologie pré-existante, mais à chaque nœud du réseau électrique se cache un paramètre par défaut. Tous ces petits choix par défaut définissent la nature du réseau, ouvert et évolutif mais plus fragile ou fermé et plus sûr. Chaque paramètre par défaut est un levier permettant de façonner le réseau, s’il peut s’accroître facilement ou pas, s’il accepte les sources de puissance non-conventionnelle ou pas, s’il est centralisé ou décentralisé… La technologie définit les systèmes technologiques, mais c’est à nous d’en établir la nature.

Aucun système n’est neutre. Chacun a ses options naturels. On dompte les choix en cascade engendrés par l’accélération de la technologie par petites touches, en adoptant nos propres options afin de les faire tendre vers nos objectifs communs, ce qui a pour conséquence d’augmenter la diversité, la complexité, la spécialisation, la sensibilité et la beauté.

Le « par défaut » nous rappelle également une autre vérité. Par définition, le « par défaut » entre en jeu lorsque nous — utilisateur, consommateur ou citoyen — ne faisons rien. Mais ne rien faire n’est pas neutre, car cela entraîne une option par défaut. Ce qui signifie que « ne pas faire de choix » est un choix lui-même. Il n’y a rien de neutre, même, ou surtout, dans l’absence d’action. Malgré ce que certains veulent bien nous faire croire, la technologie n’est jamais neutre. Même quand vous ne choisissez pas ce que vous en faites, un choix est fait. Un système s’orientera dans une direction plutôt qu’une autre selon que l’on agit ou non sur lui. Le mieux que l’on puisse faire est de lui donner la direction qui va dans notre sens.

Notes

[1] Crédit photo : Manuel Cernuda (Creative Commons By-Sa)




C’est magnifique de croire autant en l’humanité

Le titre de ce billet, qui a dû en intriguer plus d’un, est textuellement la question/réflexion que le journaliste à France Culture Xavier de la Porte a posé à notre ami Benjamin Jean au cours de l’émission Place de la Toile du vendredi 11 septembre consacrée aux alternatives à Hadopi.

Benjamin Jean intervenait en tant que membre fondateur de la toute jeune SARD (évoquée dans un article précédent).

Et face au journaliste qui le pressait de lui donner un exemple concret d’une réussite liée à l’économie du don, il a cité… Framasoft !

Sans prendre d’ailleurs la peine de nous présenter, comme si nous étions naturellement connus de tous les auditeurs ! Il n’empêche qu’on a parlé de Framasoft à France Culture et je puis vous dire que ma côte est instantanément remontée auprès de mes amis bobos parisiens 😉

Voici le court extrait en question (lien direct mp3) :

Le reste de l’émission est disponible à l’écoute (mais en .ram) sur le site officiel ainsi qu’en podcast (lien direct mp3). Il y avait du beau monde puisqu’étaient également présents rien moins que Philippe Aigrain, Florent Latrive[1] et Patrick Waelbroeck.

Saluons l’initiative de la radio publique nationale de donner ainsi pour une fois la parole aux seuls opposants (constructifs) à Hadopi, en évitant le classique, mais le plus souvent stérile, débat contradictoire avec les partisans de la loi.

Notes

[1] Florent Latrive, resté un peu frustré de ne pouvoir développer son propos faute de temps, s’en est brillamment expliqué sur son blog : Le modèle économique est un choix éditorial.




Fracture et solidarité numériques, par Jean-Pierre Archambault

Ferdinand Reus - CC by-saRien de tel pour aborder la rentrée scolaire qu’un excellent article de synthèse de notre ami Jean-Pierre Archambault qui réunit ici deux de ses sujets favoris : le logiciel libre et la place de l’informatique à l’école.

Il est intéressant de noter que l’auteur a associé dans le titre les termes « fracture » et « solidarité », sachant bien que le logiciel, les contenus et les formats libres et ouverts apportent non seulement une réponse au premier mais développent et favorisent le second[1].

Un article un peu long pour un format blog mais qui vaut le coup ! Pour vous donner un ordre d’idée il correspond à deux cents messages Twitter que l’on parcourerait en enfilade 😉

Fracture et solidarité numériques

URL d’origine du document

Jean-Pierre Archambault – septembre 2009 – Association EPI
Licence Creative Commons By-Nd


Le thème de la fracture numérique est solidement installé dans le paysage des débats sociétaux. La nécessité de la réduire prend des allures de consensus : acceptons-en l’augure. Une raison de fond à cela : la place sans cesse croissante de l’informatique dans tous les secteurs de la société, et les enjeux qui y correspondent. La fracture numérique ce sont les inégalités d’accès aux réseaux, aux contenus entre le Nord et le Sud, ainsi qu’au sein des pays développés. Ce sont aussi les inégalités en terme de maîtrise conceptuelle du numérique. Nous examinerons ces problématiques. Le libre, désormais composante à part entière de l’industrie informatique, a permis de constituer au plan mondial un bien commun informatique, accessible à tous. Nous verrons donc pourquoi il est intrinsèquement lié à la lutte contre la fracture numérique, et donc à la solidarité numérique, avec son approche, transposable pour une part à la production des autres biens informationnels, ses réponses en matière de droit d’auteur. Comme le sont également les formats et les standards ouverts. Et nous rappellerons que dans la société de la connaissance, la « matière grise » et l’éducation jouent, on le sait, un rôle décisif.

Le numérique partout

Le numérique est partout, dans la vie de tous les jours, au domicile de chacun, avec l’ordinateur personnel et l’accès à Internet ; dans l’entreprise où des systèmes de contrôle informatisés font fonctionner les processus industriels. Ses métiers, et ceux des télécommunications, occupent une place importante dans les services. On ne compte plus les objets matériels qui sont remplis de puces électroniques. Il y a relativement, et en valeur absolue, de plus en plus de biens informationnels. C’est l’informatique, pour ne prendre que ces exemples, qui a récemment fait faire de très spectaculaires progrès à l’imagerie médicale et qui permet ceux de la génétique. Elle modifie progressivement, et de manière irréversible, notre manière de poser et de résoudre les questions dans quasiment toutes les sciences expérimentales ou théoriques qui ne peuvent se concevoir aujourd’hui sans ordinateurs et réseaux. Elle change la manière dont nous voyons le monde et dont nous nous voyons nous-mêmes. L’informatique s’invite aussi au Parlement, ainsi on s’en souvient, en 2006, pour la transposition de la directive européenne sur les Droits d’auteur et les droits voisins dans la société de l’information (DADVSI), suscitant des débats complexes où exercice de la citoyenneté rimait avec technicité et culture scientifique. Et plus récemment avec la « loi Hadopi ».

La fracture numérique

On imagine sans peine que pareille omniprésence de l’informatique signifie des enjeux forts, économiques notamment. Que tous ne soient pas sur un pied d’égalité, loin s’en faut, face aux profondes mutations que le numérique engendre ne saurait a priori surprendre. Cela vaut, à plus ou moins grande échelle, pour tous les pays. Il y a beaucoup de fractures : sanitaires, alimentaires… Culturelles aussi. Ainsi concernant la maîtrise de sa langue maternelle. Ainsi la fracture mathématique, qui serait bien plus grave encore s’il n’y avait pas un enseignement de culture générale mathématique tout au long de la scolarité. Si l’interrogation sur « la poule et l’oeuf » est éternelle, on peut penser qu’« il est certain que la fracture numérique résulte des fractures sociales produites par les inégalités sur les plans économique, politique, social, culturel, entre les hommes et les femmes, les générations, les zones géographiques, etc. »[2].

Un problème d’accès

La fracture numérique tend à être perçue, d’abord et surtout, comme un problème d’accès : les recherches sur Internet avec son moteur préféré ne laissent aucun doute à ce sujet. Il y a ceux pour qui il est possible, facile de disposer d’ordinateurs connectés au réseau mondial, et les autres. C’est vrai pour le monde en général, et la France en particulier. En juin 2008, présentant « ordi 2.0 », plan anti-fracture numérique, Éric Besson rappelait qu’« être privé d’ordinateur aujourd’hui pour les publics fragiles, c’est être privé d’accès à l’information, à la culture, à l’éducation, aux services publics, donc être exposé à un risque accru de marginalisation ». Un premier volet de son plan, qui confirmait la possibilité prévue par la loi de finances 2008, permettait aux entreprises de donner leurs ordinateurs inutiles, mais en état de marche, à leurs salariés, sans charges sociales ni fiscales. Un deuxième volet visait à favoriser la création d’une filière nationale de reconditionnement, de redistribution et de retraitement des ordinateurs, ainsi que la mise en place d’un « label de confiance », garantissant un matériel en état de fonctionnement et vendu à très bas prix.

La fracture numérique a une dimension géographique. De ce point de vue, la question de l’accès égal aux réseaux est primordiale. Une politique d’aménagement du territoire ne peut que s’en préoccuper. Avec l’objectif de « démocratiser le numérique en accélérant le déploiement des infrastructures », la décision 49 du Rapport de la Commission pour la libération de la croissance française, sous la présidence de Jacques Attali[3], consistait en la « garantie d’une couverture numérique optimale en 2011 ». La décision 51, « faciliter l’accès de tous au réseau numérique » correspondait à l’objectif de réduire les fractures numériques, dont il était dit qu’« elles recouvrent la fracture sociale ». Elle proposait d’« accélérer le taux d’équipement en ordinateurs dans les foyers et TPE/PME avec un objectif d’équipement de 85 % en 2012, au moyen notamment de donations des PC usagés, de soutiens spécifiques aux étudiants, et microcrédit social ».

Pour le World Wide Web consortium qui, le 28 mai 2008, lançait un groupe d’intérêt web mobile pour le développement social (MW4D), « les technologies mobiles peuvent ouvrir aux plus pauvres des accès à des services d’informations essentiels comme les soins de santé, l’éducation, les services administratifs »[4].

L’accès à Internet, un bien commun

Le problème de l’accès est bien réel. De l’accès à Internet, tel qu’il a été créé et a fonctionné jusqu’à maintenant, et qu’il faut préserver. En effet, Internet est, en lui-même, un bien commun accessible à tous, une ressource sur laquelle n’importe quel usager a des droits, sans avoir à obtenir de permission de qui que ce soit. Son architecture est neutre et ouverte. Le « réseau des réseaux » constitue un point d’appui solide dans la lutte contre la fracture numérique[5].

Internet repose sur des standards ouverts de formats de données (HTML pour écrire des pages web) et de protocoles de communication (TCP/IP, HTTP). Il fonctionne à base de logiciels libres : Apache, SendMail, Linux… Il est donc impossible de verrouiller le réseau par la pratique du secret. Les logiciels libres contribuent à construire une plate-forme neutre. Ils la protègent par des licences comme la GPL et la diffusion du code source, garantissant aux développeurs qu’elle le restera dans l’avenir.

Les logiciels et les contenus numériques

Si l’accent est mis, à juste titre, sur la nécessité de disposer d’un ordinateur pour accéder au monde du numérique[6], les discours sont en général plus « discrets » sur le système d’exploitation. Or, sans système d’exploitation, que les acheteurs ont encore trop souvent l’impression de ne pas payer même lorsqu’il est « propriétaire », pas de machine qui fonctionne.

La fracture numérique, c’est aussi les inégalités d’accès aux logiciels et aux contenus, les régimes de propriété intellectuelle qui entravent leur circulation, leur production. Il y a désormais deux informatiques qui coexistent : libre et propriétaire. Des contenus numériques sous copyright mais aussi sous licences Creative Commons. Ces approches diffèrent sensiblement, sont quasiment antinomiques. Le débat sur leurs « mérites » respectifs, et les choix à opérer, se situe de plain-pied dans la problématique de la fracture numérique. Il peut arriver qu’il en soit absent, les deux « protagonistes » n’étant pas explicitement nommés. Cela étant, la Conférence « Repenser la fracture numérique » de l’Association for Learning Technology, dans une vision multidimensionnelle de la fracture numérique, posait la question « Open or proprietary ? »[7]. Une question qui mérite effectivement d’être posée.

Ce fut le cas à l’Université d’été de Tunisie qui s’est déroulée à Hammamet, du 25 au 28 août 2008[8]. Organisée par le Fonds Mondial de Solidarité Numérique (FSN)[9] et par l’Association pour le Développement de l’Éducation en Afrique (ADEA), elle était consacrée au thème de « La solidarité numérique au service de l’enseignement ». À son programme figuraient notamment les usages du TBI (Tableau blanc interactif), la création de ressources pédagogiques par les enseignants « auto-producteurs » et le rôle des communautés d’enseignants, les problématiques de droits d’auteur. Un atelier, qui portait sur les ressources pédagogiques des disciplines scientifiques et techniques des lycées, a fait différentes propositions dont l’une essentielle aux yeux de ses participants, qui affirme que les logiciels et les ressources pédagogiques utilisés et produits doivent être libres. Les standards et les formats de données doivent être ouverts[10]. Trois raisons ont motivé cette proposition : les coûts, le caractère opérationnel de la production collaborative de contenus pédagogiques, et le fait que les modalités de réalisation et les réponses du libre en terme de propriété intellectuelle sont en phase avec la philosophie générale d’un projet de solidarité numérique, à savoir partage, coopération, échange.

Le projet RELI@, « Ressources en ligne pour institutrices africaines », est destiné à améliorer la qualité de l’enseignement dans les pays du Sud par l’utilisation des outils et contenus numériques. Il repose sur des logiciels et ressources libres. Il a tenu son premier atelier à Dakar, du 22 au 24 octobre 2008[11]. Un « Appel de Dakar » a été lancé pour la production panafricaine de ressources pédagogiques numériques libres.

L’Unesco prime le libre

En 2007, l’association Sésamath[12] a reçu le 3e prix UNESCO (sur 68 projets) sur l’usage des TICE[13]. Pour le jury, Sésamath est « un programme complet d’enseignement des mathématiques conçu par des spécialistes, des concepteurs et près de 300 professeurs de mathématiques ». Il a été récompensé « pour la qualité de ses supports pédagogiques et pour sa capacité démontrée à toucher un large public d’apprenants et d’enseignants ».

« Remerciant particulièrement la commission française pour l’UNESCO qui a soutenu officiellement sa candidature », l’association Sésamath a vu dans l’obtention de ce prix « l’ouverture d’une nouvelle ère pour son action, vers l’internationalisation et plus particulièrement encore vers l’aide au développement ». Elle a ajouté : « Que pourrait-il y avoir de plus gratifiant pour des professeurs de Mathématiques que de voir leurs productions coopératives libres (logiciels, manuels…) utilisées par le plus grand nombre et en particulier par les populations les plus défavorisées ? C’est vrai dans toute la Francophonie… mais de nombreuses pistes de traductions commencent aussi à voir le jour. »[14]

Les deux lauréats 2007 étaient le Consortium Claroline[15] et Curriki[16]. Claroline, représenté par l’Université Catholique de Louvain, en Belgique, fournit à quelque 900 établissements répartis dans 84 pays une plate-forme « open source », sous licence GPL, en 35 langues. Claroline offre une série d’outils pédagogiques interactifs et centrés sur l’apprenant. C’est un modèle de réseau et de communauté qui met en relation des apprenants, des enseignants et des développeurs du monde entier. Créée en 2004 par Sun Microsystems, Curriki est une communauté mondiale qui se consacre à l’éducation et à la formation. Elle a désormais le statut d’organisme à but non lucratif. Elle fournit un portail Internet, un ensemble d’outils et de services aux utilisateurs grâce auxquels chacun peut librement concevoir, regrouper, évaluer et enrichir les meilleurs programmes d’enseignement, ce qui permet de répondre aux besoins de toutes les classes d’âge et de toutes les disciplines. Curriki a ainsi créé une communauté très vivante composée d’enseignants, d’apprenants, de ministères de l’Éducation, d’établissements scolaires et d’organisations publiques et privées.

L’UNESCO a ainsi mis à l’honneur des démarches éducatives fondées sur le libre, logiciels et ressources.

Parmi les avantages du libre

Parmi les avantages du libre, bien connus, il y a des coûts nettement moins importants. Si libre ne signifie pas gratuit, on peut toujours se procurer une version gratuite d’un logiciel libre, notamment en le téléchargeant. Une fantastique perspective quand, organisée au niveau d’un pays, la diffusion d’un logiciel libre permet de le fournir gratuitement à tous, avec seulement des coûts de « logistique » pour la collectivité mais une économie de licences d’utilisation à n’en plus finir.

Partage-production collaborative-coopération sont des maîtres mots de la solidarité numérique qui supposent des modalités de propriété intellectuelle qui, non seulement, favorisent la circulation des ressources numériques et les contributions des uns et des autres mais, tout simplement l’autorisent. La réponse est du côté de la GPL et des Creative Commons.

L’on sait la profonde affinité entre libre et standards et formats ouverts. Or, par exemple, les documents produits par un traitement de texte lambda doivent pouvoir être lus par un traitement de texte bêta, et réciproquement. La coopération et l’échange sont à ce prix. Il s’agit là d’une question fondamentale de l’informatique et de la fracture numérique. Tout citoyen du monde doit pouvoir avoir accès à ses données, indépendamment du matériel et du logiciel qu’il utilise. De plus en plus de biens informationnels ont une version numérisée. L’enjeu est d’accéder au patrimoine culturel de l’humanité, de participer à sa production, d’être un acteur à part entière du partage et de la coopération.

Avec le libre, chaque communauté peut prendre en main la localisation/culturisation qui la concerne, connaissant ses propres besoins et ses propres codes culturels mieux que quiconque. Il y a donc, outre une plus grande liberté et un moindre impact des retours économiques, une plus grande efficacité dans le processus, en jouant sur la flexibilité naturelle des créations immatérielles pour les adapter à ses besoins et à son génie propre. C’est aussi plus généralement ce que permettent les « contenus libres », c’est-à-dire les ressources intellectuelles – artistiques, éducatives, techniques ou scientifiques – laissées par leurs créateurs en usage libre pour tous. Logiciels et contenus libres promeuvent, dans un cadre naturel de coopération entre égaux, l’indépendance et la diversité culturelle, l’intégration sans l’aliénation.

Les logiciels (et les ressources) libres, composante à part entière de l’industrie informatique, ne peuvent qu’avoir une place de choix dans la lutte contre la fracture numérique. Sans pour autant verser dans l’angélisme. Entre les grands groupes d’acteurs du libre (communautés de développeurs, entreprises, clients comme les collectivités), dont les motivations et ressorts sont divers, il existe des conflits et des contradictions. Des dérives sont possibles, comme des formes de travail gratuit. Mais au-delà des volontés des individus, il y a la logique profonde d’une façon efficace de produire des contenus de qualité[17].

L’accès à la culture informatique

Dans un texte de l’UNESCO, TIC dans l’éducation[18], il est dit que « l’utilisation des TIC dans et pour l’éducation est vue maintenant dans le monde entier comme une nécessité et une opportunité. ». Les grandes questions sur lesquelles l’UNESCO se concentre en tant « qu’expert et conseiller impartial » sont : « Comment peut-on employer les TIC pour accélérer le progrès vers l’éducation pour tous et durant toute la vie ? (…) En second lieu, les TIC, comme tous les outils, doivent être considérées en tant que telles, et être employées et adaptées pour servir des buts éducatifs. » Elle revendique que « l’initiation à l’informatique soit reconnue comme une compétence élémentaire dans les systèmes d’enseignement »[19].

Le numérique, ce sont des outils conceptuels, des abstractions, une discipline scientifique et technique en tant que telle. Au service des autres disciplines, comme le sont les mathématiques. L’ordinateur est une prothèse du cerveau, dont on se sert d’autant plus intelligemment qu’on en connaît l’« intelligence »[20]. La fracture numérique ne serait-elle pas aussi (d’abord ?) une fracture culturelle, qui ne concerne pas que le Sud ? D’ailleurs, ne parle-t-on pas fréquemment de l’« accès » à la culture ?

« L’utilisation d’un outil, si fréquente et diversifiée soit-elle, ne porte pas en elle-même les éléments qui permettent d’éclairer sa propre pratique. »[21] « Comment en effet procéder à une recherche d’information efficace lorsque l’on n’a aucune connaissance du mode de fonctionnement de l’instrument utilisé ? »[22] Or, une enquête menée auprès de 640 000 utilisateurs de l’internet en France en 2001 avait montré que 87 % d’entre eux ne savaient pas se servir d’un moteur de recherche[23]. « Depuis que "l’homo faber" fabrique des outils et s’en sert, une bonne intelligence de l’outil est considérée comme nécessaire pour une bonne utilisation, efficace, précise et raisonnée : plus on en sait quant aux possibilités de réglage et aux conditions d’utilisation mieux cela vaut, partout. Il n’y aurait que l’informatique qui échapperait à cette règle et où l’ignorance serait un avantage ! »[24].

Partout dans le monde, lutter véritablement contre la fracture numérique suppose de donner à tous les élèves les fondamentaux scientifiques du domaine[25]. L’objectif est la maîtrise de ces instruments intellectuels d’un type nouveau. Elle n’est pas vraiment aisée et nécessite des années d’apprentissage (pour un individu il faut environ 20 ans pour maîtriser l’ensemble des instruments et méthodes liés à l’exercice d’une pensée rationnelle). On voit mal comment la diffusion d’objets matériels permettrait en elle-même de raccourcir les délais d’apprentissage, comment on entrerait dans le monde du numérique, abstrait et conceptuel, sans en faire un objet d’étude.

À l’appui de cette nécessité d’enseignement en tant que tel, le fait que la fracture numérique peut se loger là où on ne l’attend pas. Ainsi pointe-t-on une fracture numérique qui émerge, non plus entre les particuliers, mais entre les entreprises, notamment les plus petites et les plus grandes[26]. D’un côté « les mieux loties, accompagnées d’une armée de consultants ou naturellement aguerries à ces sujets ». De l’autre « des centaines de milliers d’entreprises qui souhaitent ardemment tirer profit, dès maintenant, des outils à disposition mais qui butent sur la complexité technologique, les tarifications inadaptées, les offres sur ou sous dimensionnées sans parler des compétences inaccessibles et en voie de raréfaction ». En fait, on voit aujourd’hui émerger « une nouvelle e-aristocratie qui va à l’encontre de la promesse de démocratisation des bénéfices économiques des NTIC (productivité, économie, accessibilité) ».

Dans leur rapport sur l’économie de l’immatériel[27], Maurice Lévy et Jean-Pierre Jouyet soulignent que, dans l’économie de l’immatériel, « l’incapacité à maîtriser les TIC constituera (…) une nouvelle forme d’illettrisme, aussi dommageable que le fait de ne pas savoir lire et écrire ». Ils mettent en évidence les obstacles qui freinent l’adaptation de notre pays à l’économie de l’immatériel, notamment « notre manière de penser », invitant à changer un certain nombre de « nos réflexes collectifs fondés sur une économie essentiellement industrielle ».

La lutte contre la fracture numérique a bien d’abord une dimension éminemment culturelle. Il s’agit d’un enjeu éducatif majeur, de culture générale scientifique et technique pour tous. D’un défi aussi dont les réponses pour le relever se trouvent d’évidence dans les systèmes éducatifs, dont c’est une des raisons d’être.

Jean-Pierre Archambault
Chargé de mission au CNDP-CRDP de Paris

Notes

[1] Crédit photo : Ferdinand Reus (Creative Commons By-Sa)

[2] Les politiques de tous les bords, beaucoup d’institutions (Banque Mondiale et le G8, l’Union Européenne, l’UNESCO…) s’emparent de la problématique de la fracture numérique, avec l’objectif affirmé de la résorber. D’autres s’en inquiètent : « Dejà, le fait qu’une telle notion fasse l’objet d’un consensus aussi large, au sein de groupes sociaux qui s’opposent les uns aux autres, donne à penser qu’elle est scientifiquement fragile. ». Voir La fracture numérique existe-t-elle ?, Éric Guichard, INRIA – ENS.

[3] http://www.liberationdelacroissance.fr/files…

[4] http://www.sophianet.com/wtm_article47688.fr.htm

[5] On pourra se référer aux études de Yochai Benkler reprises par Lawrence Lessig dans son remarquable ouvrage L’avenir des idées, Presses universitaires de Lyon, 2005. Voir « Innover ou protéger ? un cyber-dilemme », Jean-Pierre Archambault, Médialog n°58.

[6] Mais, à trop privilégier dans le discours le nécessaire équipement de tous, il y a le risque de donner à croire que les intérêts des constructeurs ne sont pas loin, en arrière plan de la « noble » lutte contre la fracture numérique.

[7] http://thot.cursus.edu/rubrique.asp?no=27124

[8] http://www.tunisiait.com/article.php?article=2912

[9] ttp://www.dsf-fsn.org/cms/component/option…

[10] http://repta.net/repta/telechargements/Universite_Tunisie…

[11] Premier atelier RELI@ à Dakar : Appel de DAKAR pour la production panafricaine de ressources pédagogiques numériques libres.

[12] http://sesamath.net

[13] http://portal.unesco.org/fr…

[14] http://www.sesamath.net/blog…

[15] http://www.claroline.net/index.php?lang=fr

[16] http://www.curriki.org/xwiki/bin/view/Main/WebHome

[17] L’économie du logiciel libre, François Élie, Eyrolles, 2008.

[18] http://portal.unesco.org/ci/fr/ev.php-URL_ID=2929…

[19] http://portal.unesco.org/ci/fr/ev.php-URL_ID=4347…

[20] « Informatique et TIC : une vraie discipline ? », Jean-Pierre Archambault, Médialog n° 62,

[21] Ordinateur et système éducatif : quelques questions, in Utilisations de l’ordinateur dans l’enseignement secondaire, Jean-Michel Bérard, Inspecteur général de l’Éducation nationale, Hachette Éducation, 1993.

[22] « La nature du B2i lui permet-elle d’atteindre ses objectifs ? » Jean-François Cerisier, Les dossiers de l’ingénierie éducative n° 55, septembre 2006.

[23] http://barthes.ens.fr/atelier/theseEG/

[24] « Enseigner l’informatique », Maurice Nivat, membre correspondant de l’Académie des Sciences,

[25] Voir : Le bloc-notes de l’EPI, La formation à l’informatique et aux TIC au lycée / Proposition de programme / Seconde Première Terminale et « Quelle informatique enseigner au lycée ? », Gilles Dowek, professeur d’informatique à l’École Polytechnique, intervention à l’Académie des Sciences du 15 mars 2005.

[26] Une fracture numérique existe aussi entre les entreprises, Vincent Fournoux, Le Journal du Net du 31 juillet 2008.

[27] L’économie de l’immatériel – La croissance de demain, rapport de la commission sur l’économie de l’immatériel remis à Thierry Breton, Maurice Lévy, Jean-Pierre Jouyet, décembre 2006.




« Le droit de lire » de Richard Stallman… 13 ans après !

Marfis75 - CC by-saÀ l’heure où le feuilleton Hadopi poursuit ses aventures parlementaires, il nous a semblé intéressant de déterrer un énième écrit de Richard Stallman.

D’abord parce que ce n’est pas tous les jours que Stallman verse dans la nouvelle de science-fiction (et nous parle… d’amour, dans un univers orwellien à souhait[1]). Mais aussi et surtout parce que, bien que rédigé en 1996, ce texte n’est pas loin d’avoir aujourd’hui des petits accents prophétiques (à commencer par la récente affaire Kindle).

Malheureusement…

Le droit de lire

Richard Stallman – février 1997 – GNU.org
(Traduction : Pierre Sarrazin)

URL d’origine du document

(extrait de « The Road to Tycho », une collection d’articles sur les antécédents de la Révolution lunaire, publiée à Luna City en 2096)

Pour Dan Halbert, la route vers Tycho commença à l’université — quand Lissa Lenz lui demanda de lui prêter son ordinateur. Le sien était en panne, et à moins qu’elle puisse en emprunter un autre, elle échouerait son projet de mi-session. Il n’y avait personne d’autre à qui elle osait demander, à part Dan.

Ceci posa un dilemme à Dan. Il se devait de l’aider — mais s’il lui prêtait son ordinateur, elle pourrait lire ses livres. À part le fait que vous pouviez aller en prison pour plusieurs années pour avoir laissé quelqu’un lire vos livres, l’idée même le choqua au départ. Comme à tout le monde, on lui avait enseigné dès l’école primaire que partager des livres était malicieux et immoral — une chose que seuls les pirates font.

Et il était improbable que la SPA — la Software Protection Authority — manquerait de le pincer. Dans ses cours sur les logiciels, Dan avait appris que chaque livre avait un moniteur de copyright qui rapportait quand et où il était lu, et par qui, à la Centrale des licences. (Elle utilisait ces informations pour attraper les lecteurs pirates, mais aussi pour vendre des renseignements personnels à des détaillants.) La prochaine fois que son ordinateur serait en réseau, la Centrale des licences se rendrait compte. Dan, comme propriétaire d’ordinateur, subirait les punitions les plus sévères — pour ne pas avoir tout tenté pour éviter le délit.

Bien sûr, Lissa n’avait pas nécessairement l’intention de lire ses livres. Elle pourrait ne vouloir l’ordinateur que pour écrire son projet. Mais Dan savait qu’elle venait d’une famille de classe moyenne et qu’elle arrivait difficilement à payer ses frais de scolarité, sans compter ses frais de lecture. Lire les livres de Dan pourrait être sa seule façon d’obtenir son diplôme. Il comprenait cette situation; lui-même avait eu à emprunter pour payer pour tous les articles scientifiques qu’il avait eu à lire. (10% de ces frais allaient aux chercheurs qui écrivaient ces articles; puisque Dan visait une carrière académique, il pouvait espérer que si ses propres articles scientiques étaient souvent lus, il gagnerait un revenu suffisant pour rembourser sa dette).

Par la suite, Dan apprendrait qu’il y eut un temps où n’importe qui pouvait aller à la bibliothèque et lire des articles de journaux, et même des livres, sans avoir à payer. Il y avait des universitaires indépendants qui lisaient des milliers de pages sans subventions des bibliothèques gouvernementales. Mais dans les années 1990, les éditeurs aussi bien commerciaux qu’à but non lucratif avaient commencé à facturer l’accès. En 2047, les bibliothèques offrant un accès public gratuit à la littérature scientifique n’étaient qu’un pâle souvenir.

Il y avait des façons, bien sûr, de contourner la SPA et la Centrale des licences. Elles étaient elles-mêmes illégales. Dan avait eu un compagnon de classe dans son cours sur les logiciels, Frank Martucci, qui avait obtenu un outil illégal de déboguage, et l’avait utilisé pour outrepasser le code du moniteur de copyright quand il lisait des livres. Mais il en avait parlé à trop d’amis, et l’un d’eux l’a dénoncé auprès de la SPA pour une récompense (des étudiants criblés de dettes pouvaient facilement être tentés par la trahison). En 2047, Frank était en prison, non pas pour lecture pirate, mais pour possession d’un débogueur.

Dan apprendrait plus tard qu’il y eut un temps où n’importe qui pouvait posséder des outils de déboguage. Il y avait même des outils de déboguage disponibles gratuitement sur des CD ou qu’on pouvait télécharger du Net. Mais des usagers ordinaires commencèrent à s’en servir pour outrepasser les moniteurs de copyright, et finalement un juge a décidé que c’était devenu leur principale utilisation en pratique. Ceci voulait dire qu’ils étaient illégaux; les développeurs de ces débogueurs furent envoyés en prison.

Les programmeurs avaient encore besoin d’outils pour déboguer, bien sûr, mais les vendeurs de débogueurs en 2047 ne distribuaient que des copies numérotées, et seulement à des programmeurs officiellement licenciés et soumis. Le débogueur que Dan utilisait dans son cours sur les logiciels était gardé derrière un garde-barrière spécial afin qu’il ne puisse servir que pour les exercices du cours.

Il était aussi possible de contourner les moniteurs de copyright en installant un noyau système modifié. Dan apprendrait finalement l’existence de noyaux libres, et même de systèmes d’exploitation entièrement libres, qui avaient existé au tournant du siècle. Mais non seulement étaient-ils illégaux, comme les débogueurs, mais vous ne pouviez en installer un, si vous en aviez un, sans connaître le mot de passe de l’usager superviseur de votre ordinateur. Or, ni le FBI ni l’Aide technique Microsoft ne vous le révèlerait.

Dan conclut qu’il ne pouvait simplement prêter son ordinateur à Lissa. Mais il ne pouvait refuser de l’aider, car il l’aimait. Chaque chance de lui parler le remplissait d’aise. Et le fait qu’elle l’avait choisi pour demander de l’aide pouvait signifier qu’elle l’aimait aussi.

Dan résolut le dilemme en faisant une chose encore plus impensable — il lui prêta l’ordinateur, et lui dit son mot de passe. Ainsi, si Lissa lisait ses livres, la Centrale des licences penserait que c’était lui qui les lisait. C’était quand même un délit, mais la SPA ne s’en rendrait pas compte automatiquement. Ils ne s’en rendraient compte que si Lissa le dénonçait.

Bien sûr, si l’école devait un jour apprendre qu’il avait donné son propre mot de passe à Lissa, ce serait la fin de leurs études, peu importe ce à quoi le mot de passe aurait servi. La politique de l’école était que toute interférence avec ses mécanismes de surveillance de l’utilisation des ordinateurs par les étudiants était punissable. Il n’importait pas qu’aucun mal n’ait été fait — l’offense était de se rendre difficile à surveiller par les administrateurs. Ils supposaient que ça signifiait que vous faisiez quelque chose d’autre qui était interdit, et ils n’avaient pas besoin de savoir de quoi il s’agissait.

Les étudiants n’étaient habituellement pas expulsés pour cela — pas directement. Ils étaient plutôt bannis des systèmes informatiques de l’école, et échouaient inévitablement leurs cours.

Plus tard, Dan apprendrait que ce genre de politique n’a commencé dans les universités que dans les années 1980, quand des étudiants commencèrent à être nombreux à utiliser des ordinateurs. Avant, les universités avaient une approche différente au sujet de la discipline auprès des étudiants; elles punissaient des activités qui causaient du tort, et non pas simplement celles qui soulevaient des doutes.

Lissa ne dénonça pas Dan à la SPA. La décision de Dan de l’aider mena à leur mariage, et les amena aussi à remettre en question ce qu’on leur avait enseigné durant leur enfance au sujet du piratage. Le couple se mit à lire sur l’histoire du copyright, sur l’Union soviétique et ses restrictions sur la copie, et même sur la Constitution originale des États-Unis. Ils déménagèrent à Luna, où ils trouvèrent d’autres gens qui comme eux avaient pris leurs distances par rapport au bras long de la SPA. Quand la révolte de Tycho commença en 2062, le droit universel de lire devint bientôt un de ses buts principaux.

Copyright © 1996 Richard Stallman
La reproduction exacte et la distribution intégrale de cet article est permise sur n’importe quel support d’archivage, pourvu que cette notice soit préservée.

Cet article a été publié dans la parution de février 1997 de Communications of the ACM (volume 40, numéro 2). Il a fait l’objet d’une intéressante note de l’auteur mise à jour en 2007 que nous n’avons pas reproduite ici.

Notes

[1] Crédit photo : Marfis75 (Creative Commons By-Sa)




De la contradiction d’avoir un iPhone

Mat Honan - CC byL’été dernier, me voici attablé à la terrasse d’un café, place de la Bastille, en compagnie de quelques membres influents de la blogosphère française. L’occasion d’évoquer Hadopi. Il allait de soit qu’ils étaient tous contre.

Un petit détail m’a frappé : ils étaient tous accompagnés de leur iPhone, qui d’ailleurs ne leur laissait que rarement plus de cinq minutes de répit. iPhone qui vers la fin de notre entretien est carrément devenu le sujet principal de conversation, lorsque le possesseur de je ne sais plus quelle toute nouvelle application issue de l’App Store a voulu en faire la démonstration aux autres[1].

Peut-on être un pourfendeur d’Hadopi et plus généralement un chaud défenseur des libertés numériques tout en possédant un iPhone ? Certes oui. Sauf que, comme vient nous le rappeler Bruno Kerouanton dans ce court et percutant article, nous sommes peut-être en situation de compromis, voire de compromission, avec quelques uns de nos idéaux, fussent-ils numériques[2].

Le paradoxe du citoyen consommateur

URL d’origine du document

Bruno Kerouanton – 14 septembre 2009 – Le Club des Vigilants
Licence Creative Commons By-Nc

Apple est loin d’être seule en cause mais le succès phénoménal de son iPhone illustre, à bien des égards, le paradoxe du citoyen consommateur contemporain.

D’un côté, il se dit écolo. De l’autre, il se jette sur un appareil dont la batterie est intégrée au téléphone, faisant de l’objet un produit jetable complexe à recycler.

D’un côté, il prône la liberté de téléchargement sur Internet, et le droit de dupliquer à l’infini films et œuvres musicales au grand dam des auteurs et de leurs ayants droit. De l’autre, il se précipite sur l’une des plateformes informatiques les plus verrouillées en termes de mesures anticopie.

D’un côté, il se méfie des monopoles. De l’autre, il utilise la plateforme de téléchargement AppStore qui centralise de manière obligatoire toute application disponible, préalablement soumise à la censure de l’éditeur californien.

D’un côté, il défend les logiciels libres et leur gratuité. De l’autre, il n’a jamais autant acheté de logiciels depuis la mise en place de l’AppStore.

D’un côté, il aime l’anonymat et le respect de la vie privée. De l’autre, il se rue sur l’iPhone qui est l’une des plateformes les plus intrusives, en termes de géolocalisation, mais également de suivi des habitudes d’utilisation et de consommation.

Le succès d’Apple tient à la technologie et à l’innovation. En offrant à ses clients un produit très en avance sur ses concurrents, en termes d’ergonomie et de fonctionnalités, ceux-ci sont prêts à en oublier les inconvénients, voire carrément à en occulter l’existence.

Ce comportement paradoxal doit être pris en compte dans le cadre de nouveaux enjeux sociétaux relatifs aux nouvelles technologies. Risques liés aux réseaux sociaux, difficulté de mise en application de réglementations de type Hadopi et bien d’autres thèmes d’actualité devraient être revus en tenant compte de cette surprenante tendance.

Notes

[1] Crédit photo : Mat Honan (Creative Commons By)

[2] Sur le même sujet on pourra aussi lire cet autre article du Framablog : iPhone 3G : tout ce qui brille n’est pas or.




Pandémie grippale + Sanction Hadopi = Continuité pédagogique non assurée

Freeparking - CC byCette rentrée scolaire rime avec risque annoncé de pandémie grippale A/H1N1.

C’est pourquoi le ministère de l’Éducation nationale a rédigé une circulaire apportant « les réponses que la communauté éducative attend, en matière d’hygiène et de santé au travail et en matière de continuité pédagogique ».

Pour ce qui concerne la continuité pédagogique, on peut lire ceci pour les collèges et les lycées[1] :

« Dans tous les cas d’absence d’élèves, de fermeture de classes ou d’établissements, il appartient à chaque professeur d’assurer la continuité pédagogique des cours de sa discipline. Pour ce faire, plusieurs moyens sont mobilisables ; les établissements s’organiseront en tenant compte de l’ensemble des équipements et des compétences dont ils disposent.

Pour les établissements disposant d’espace numérique de travail (E.N.T.) ou fournissant par le biais d’internet un accès à des ressources pédagogiques, les professeurs pourront adresser les supports de cours et d’exercices aux élèves absents et permettre ainsi un échange continu et interactif ;

En l’absence d’E.N.T., les travaux à faire pourront être mis en ligne sur le site de l’établissement, et s’appuieront sur les manuels scolaires utilisés en classe.

Si le site de l’établissement est indisponible, et pour les élèves ne disposant pas d’accès à internet, les travaux à faire à la maison seront remis aux élèves dès l’avis de fermeture de la classe ou de l’établissement.

De surcroît, les professeurs conseilleront aux familles équipées d’internet de se connecter au site http://www.academie-en-ligne.fr, mis en place par le CNED qui propose à titre gratuit des ressources téléchargeables : cours et exercices sous forme écrite ou audio. Ces ressources seront disponibles dès la mi-septembre pour le premier degré, fin octobre pour la plupart des disciplines d’enseignement général du second degré. »

Le dénominateur commun de toutes ces mesures (sauf une) ?

Elles nécessitent un accès à Internet. Ce qui n’est pas encore le cas de tous les foyers français.

Mais si en plus Hadopi s’en mêle, en étant susceptible de couper la connexion à toute une famille, on arrive à une situation pour le moins problématique !

C’est ce que nous rappelle l’Isoc France[2], dans un récent communiqué que nous avons reproduit ci-dessous, à la veille de l’examen à l’Assemblée nationale du projet de loi « Hadopi 2 » (qui aura lieu le mardi 15 septembre prochain).

PS : Pour une lecture (plus que) critique du site de l’Académie en ligne, nous vous renvoyons vers ce billet du Framablog.

Hadopi 2 et pandémie : ne coupez pas l’éducation en ligne !

URL d’origine du document

Isoc – 9 septembre – Communique de Presse

Les solutions proposées pour affronter la pandémie grippale mettent au jour l’inanité des dispositions contenues dans la loi dite Hadopi 2, à commencer par la coupure de l’accès pour toute une famille.

Prochainement proposée au vote du Parlement, cette loi fait suite à la loi Hadopi 1 qui a été partiellement invalidée par le Conseil constitutionnel. Dès le début de la discussion relative à ce premier texte, le chapitre français de l’Internet Society a contesté que la coupure à Internet puisse être une sanction acceptable.

Pour faire face aux fermetures d’établissements, le gouvernement voudrait proposer des cours de substitution par Internet. En attendant que les classes puissent rouvrir normalement, Internet permettra ainsi à nos enfants de continuer à apprendre.

Or, si les dispositions de la Loi Hadopi 2 étaient en vigueur aujourd’hui, l’accès au net de milliers de famille pourrait être suspendu et leurs enfants privés de facto du droit à l’éducation.

Peut-on punir une famille entière, pour les errements supposés d’un de ses membres (ou de ses voisins) ? Quelle législation nationale, pour préserver les profits de quelques artistes et industriels du divertissement, priverait des milliers de familles de l’accès au réseau ?

La pandémie grippale vient rappeler qu’on ne peut pas prétendre entrer dans la société du 21e siècle avec des conceptions disciplinaires d’un autre âge. La société de la connaissance qui s’annonce est une société ouverte, où l’échange direct entre les individus est créateur de richesse et de sens. En votant l’Hadopi 2, les parlementaires français voteront pour le monde d’avant-hier.

La suspension d’Internet ne peut pas être la sanction au téléchargement illégal ou au défaut de sécurisation de sa connexion.

L’Isoc France demande aux députés français de penser au présent et l’avenir de nos enfants, au moment du vote. En leur âme et conscience.

Notes

[1] Crédit photo : Freeparking (Creative Commons By)

[2] Fondée en 1996 par une poignée de pionniers, l’Internet Society France est le Chapitre Français de l’Isoc Association internationale, A l’heure où le réseau devient un enjeu technologique, économique et sociétal majeur, l’Isoc France s’attache à préserver et à défendre les valeurs fondamentales de l’Internet que sont l’universalité, l’accessibilité, le respect des standards ouverts, la non discrimination du réseau et l’interopérabilité des solutions techniques.