Je pense avoir acheté mon dernier Mac

Procsilas - CC byFramasoft en général et le Framablog en particulier vous ont souvent raconté des histoires de migration du système d’exploitation Microsoft Windows vers GNU/Linux (de préférence des histoires qui se finissent bien).

Pour changer un peu, il nous a semble original et intéressant de vous proposer le témoignage d’un « vieux fidèle » du Mac qui a lui aussi décidé de « briser ses chaînes » (et Dieu sait si avec Apple elle sont nombreuses) pour s’en aller le cœur léger aborder le pays des manchots, en l’occurrence le manchot sud-africain Ubuntu.

Que les geeks qui ne cessent de vanter les mérites de Linux mais dont l’ordinateur principal tourne sous Mac[1] (si, si, j’en connais, au moins autant que ceux qui restent sous Windows), n’hésitent pas à apporter leur pierre dans les commentaires 😉

Migration

Switching

Ian Betteridge – 11 janvier 2009 – Technovia
(Traduction Framalang : Balzane)

Comme vous avez pu le déduire de mes billets récents, j’ai changé de système d’exploitation. Mon ordinateur principal est maintenant un portable Dell tournant sur Ubuntu 8.10.

J’avais utilisé des Mac depuis 1986, et j’en avais pratiquement toujours possédé un depuis 1989. Le Mac Plus, le LC 475, le PowerBook Duo, l’iBook et le MacBook Pro figurent parmi les machines qui subirent mon utilisation quotidienne. J’ai gagné ma vie en écrivant sur les Macs et je ne compte plus les Macworld Expos auxquelles j’ai assisté.

Mais, sauf évolution de la politique d’Apple et lancement de machines résolument différentes, je pense avoir acheté mon dernier Mac.

Les causes d’une migration de Mac OS X vers Linux sont diverses. La première était simple : le prix. Indéniablement, les toutes dernières générations de machines Apple sont surpuissantes. Malheureusement, leur prix est tout aussi surpuissant. C’est simple, je n’étais pas prêt à dépenser 200 £ (NdT : environ 230 €) de plus que pour mon dernier MacBook Pro.

Bien sûr, j’aurais pu me rabattre sur un MacBook standard. Il aurait été assez puissant pour mon usage. Mais il ne dispose que d’un écran 13 pouces et, après avoir travaillé des années sur un 15 pouces, 13 pouces c’était vraiment trop petit.

À l’inverse de beaucoup de constructeurs, Apple ne comptait pas de portables 15 pouces moins puissants que le MacBook Pro dans sa gamme. On comprendra que, pour des raisons de logistique et de simplicité de ses produits, Apple limite le nombre de variantes sur ses chaînes de production. Du coup, Apple ne proposait pas de machine qui corresponde à mes besoins.

Ceci constitue d’ailleurs un élément de réponse à la lancinante question : « Un Mac est-il un bon investissement ? » Par rapport à un PC aux performances identiques, c’est parfois le cas. Cependant, il arrive que l’utilisateur n’ait pas forcément besoin des fonctionnalités supplémentaires ou de la puissance du Mac. À moins qu’elles ne soient gratuites ou bon marché, acheter une machine aux fonctionnalités superflues n’est pas un bon investissement. Dans mon cas, payer 1400 £ (NdT : environ 1600 €) simplement pour bénéficier d’un écran 15 pouces alors que je n’ai pas l’usage d’un bus système cadencé à 1 GHz ou de deux cartes graphiques n’est pas un investissement intéressant.

Il y avait aussi une autre raison de migrer, mise en évidence par Mark Pilgrim lors de son passage sous Linux. Apple est une société particulièrement privatrice, elle ne documente pas ses formats de fichiers et a tendance à plus ou moins subtilement enfermer ses clients.

L’exemple le plus évident est l’iPhone. Comme un Mac, un iPhone possède un design exceptionnel. C’est aussi un écosystème très fermé. Les développeurs qui refusent de jouer le jeu d’Apple ne peuvent pas distribuer officiellement leurs applications. Ils ne peuvent que compter sur d’autres pour contourner les limitations du système d’exploitation du téléphone. Si vous voulez que vos applications tournent sur la majorité des iPhones, vous devez accepter les règles fixées par Apple. Et ces règles sont, semble-t-il, pour le moins arbitraires.

Je connais les justifications à ces règles. Ce sont exactement les mêmes arguments que ceux qu’utilisait IBM à l’époque où il ne voulait pas que vous exécutiez d’autres programmes que les leurs sur votre mainframe IBM. Certes, faire partie d’un écosystème fermé et rigoureusement contrôlé assure votre sécurité. C’est aussi hypothéquer votre capacité à disposer d’un Personal Computer réellement personnel.

Je fais une prédiction : pour des raisons similaires, l’écosystème de développement Mac va progressivement ressembler à celui du iPhone. D’optionnel, le recours à des binaires signés va finalement devenir « aucune possibilité d’exécution de code non signé ». Apple deviendra un distributeur d’applications, et fixera des règles du jeu similaires à celles appliquées à l’iPhone. Le raisonnement fait pour l’iPhone peut être transposé au Mac. Je ne pense pas que cela se produira dans les cinq prochaines années, mais je suppose que ça arrivera tôt ou tard. (Mise à jour : si vous êtes arrivé sur ce billet par le billet de Giles qui souligne cette prédiction, la lecture de Why Apple will have a Mac App Store peut vous intéresser.)

Après tout, Apple est une société qui se base sur le DMCA (NdT : Digital Millennium Copyright Act, pendant américain à DADVSI) pour empêcher la rétro-ingénierie sur les fichiers de base de données d’un iPod, élément essentiel à l’interopérabilité d’un iPod avec d’autres plates-formes que Windows ou Mac. Une société qui déploie sans avertissement la technologie anti-copie HDCP, de façon à bloquer jusqu’à la lecture même de contenus qui ne sont pas en haute définition sur des matériels non homologués.

Heureusement il existe une autre possibilité, une possibilité qui n’implique pas de faire confiance à une unique société commerciale pour prendre en compte l’ensemble de nos besoins informatiques. Alors je n’ai ni acheté un MacBook ni un MacBook Pro, mais un Dell XPS1530 flambant neuf, qui maintenant tourne avec bonheur sous Ubuntu 8.10. Il n’est pas aussi puissant qu’un MacBook Pro, mais la configuration matérielle correspond exactement à mes besoins, et son système d’exploitation n’est pas la propriété d’une multinationale monolithique.

Comment s’est passé l’essai jusqu’ici ? Le Mac ne m’a pas manqué une seule minute. Tout a bien fonctionné.

Je garde encore une partition Windows sur la machine, mais elle ne sert vraiment plus qu’en cas d’urgence. WoW tourne à la perfection sous Wine, et la fréquence de rafraîchissement fait passer mon vieux Mac Book Pro pour un Apple II. Le jour est proche où je n’aurai plus besoin d’un Windows « au cas où » et récupérerai les 80 Gb de la partition pour un meilleur usage. De toutes les façons ce Dell est équipé d’un disque de 400 Gb, ce qui me laisse le temps de voir venir.

ITunes ? Je n’en ai pas besoin, Amarok est meilleur, de loin. Pour tous mes documents, j’utilise OpenOffice.org et j’accède ainsi à un format de fichier dont l’existence n’est pas soumise au bon vouloir d’une société, à l’inverse de Pages (NdT : traitement de texte sur Mac).

La configuration d’Ubuntu a été un plaisir. Je pense vraiment que c’est à la portée de tous, et si vous avez la malchance de rencontrer le moindre problème, une rapide recherche Google devrait vous retourner une réponse de l’étonnante communauté Ubuntu. Avec mon Dell, j’ai rencontré une difficulté avec le trackpad, problème que j’ai pu résoudre en dix minutes grâces à Google et à la communauté Ubuntu. Si vous savez installer un Windows, vous saurez sans aucun doute installer et utiliser Ubuntu

Certains aspects du boulot effectué sont particulièrement impressionnants. Le modem 3G intégré, dont mon Dell est équipé, n’a pas juste été reconnu pas Ubuntu, il était aussi fonctionnel en quelques minutes. Un clic sur l’assistant qui m’a demandé quel réseau mobile utiliser, et ça marchait. Ce fut la même chose pour mon imprimante, une HP Deskjet vieille de moins d’un an. Alors que Windows Vista ne voulait pas en entendre parler, Ubuntu l’a reconnue dès son branchement et elle a fonctionné du premier coup.

Devriez-vous en faire de même ? Si vous êtes sensibilisés aux logiciels libres et aux formats ouverts, si vous refusez d’être captifs d’un matériel ou d’un unique système d’exploitation, alors la réponse est oui. Si vous vous préoccupez davantage de la simplicité d’utilisation de votre ordinateur et êtes satisfait de ce que vous impose Apple, alors non. De tous les systèmes d’exploitation existants, la distribution Ubuntu est la plus proche d’un système d’exploitation pour tous publics, mais il n’est pas pour tout le monde.

C’est une bonne chose, parce que la monoculture est nuisible. Je souhaite que Mac OS X s’améliore et prospère, tout comme que je souhaite que Microsoft perfectionne Windows. L’émulation est positive, et une concurrence entre trois plates-formes qui adoptent chacune une approche différente est très saine.

Notes

[1] Crédit photo : Procsilas (Creative Commons By)




Quand Google libère le code source d’un logiciel controversé

Larsz - CC by-saCeux qui ont eu, comme moi, la curiosité de goûter du bout des lèvres au navigateur Google Chrome au moment de sa sortie sous Windows, se sont peut-être aperçus alors qu’un autre drôle de petit logiciel, répondant au doux nom de GoogleUpdate, s’installait à votre insu et travaillait toujours en toile de fond, quand bien même Chrome ne se trouve plus ouvert.

Voici comment le Centre d’aide Google en parle : « GoogleUpdate.exe est un composant logiciel qui joue le rôle de méta-programme d’installation et d’outil de mise à jour automatique dans de nombreuses applications Google que vous pouvez télécharger, notamment Google Chrome. Il maintient vos programmes à jour avec les fonctionnalités les plus récentes. Plus important encore, GoogleUpdate permet une mise à jour rapide de vos applications Google si des failles de sécurité venaient à être détectées. »

Et puis, plus loin, dans le paragraphe (sensible) Informations transmises à Google : « Lorsque GoogleUpdate communique avec les serveurs Google, il envoie les ID des applications qu’il gère sur votre ordinateur ainsi que des informations générales sur l’utilisation de ces applications. GoogleUpdate utilise également un numéro d’identification unique généré de manière aléatoire pour comptabiliser le nombre total d’utilisateurs. Ces informations concernent notamment les numéros de version, les langues, le système d’exploitation et d’autres données sur l’installation ou la mise à jour, telles que l’exécution des applications. Ces informations ne sont associées ni à vous-même, ni à votre compte Google. D’autres informations peuvent nous être transmises si vous choisissez d’envoyer vos statistiques d’utilisation concernant Google Chrome. »

Son processus de désinstallation est lui aussi assez étonnant (et sujet à caution) : « Pour désinstaller complètement GoogleUpdate, désinstallez toutes les applications Google actuellement installées sur votre ordinateur. La désinstallation de GoogleUpdate devrait intervenir automatiquement quelques heures après la désinstallation de vos programmes Google. GoogleUpdate étant lié aux applications Google installées sur votre ordinateur, il ne peut être supprimé individuellement. Si vous supprimez uniquement le processus GoogleUpdate, il se peut que vos programmes Google ne fonctionnent plus correctement et, très souvent, GoogleUpdate se réinstallera de toute façon automatiquement. »

On comprendra alors facilement que certains se sont émus de la présence de ce logiciel, surtout qu’en absence d’accès au code source, on ne pouvait que faire confiance à Google dans sa collecte d’informations.

Or avec Google[1], la confiance sur parole n’est plus forcément de mise. La confiance en acte c’est bien plus mieux et transparent. Et dans le monde logiciel cela se traduit comme ici par la libération du code source du programme, afin de l’étudier et constater effectivement que cette collecte d’informations est, si ce n’est inoffensive, tout de moins conforme à ce qui avait été annoncé.

Je ne sais si vous êtes désormais totalement rassuré (les commentaires sont grands ouverts) mais la démarche est intéressante : montre-moi ton code source et je te dirais qui tu es réellement. On rêve déjà d’en faire de même pour toute la gamme logicielle de Google, et puis aussi celle de Microsoft et Apple tant qu’on y est 😉

Pour évoquer cette nouvelle, nous n’avons pas choisi la voie officielle, c’est-à-dire le communiqué de Google, mais celle du blog Google Operating System, qui bien que totalement dédié à Google lui est indépendant.

Google Update libère son code source

Google Update, Open Sourced

Alex Chitu – 12 avril 2009 – Google Operating System
(Traduction Framalang : Tyah et Don Rico)

Ça n’a pas d’interface, c’est toujours actif en sous-tâche, prêt à mettre à jour silencieusement votre logiciel Google : Google Update est un service qui fait du bureau Google l’égal des applications web en constante mise à jour. Hélas, ce service n’est pas très stable, on ne peut pas le supprimer tant que l’on a pas désinstallé toutes les applications qui l’utilisent, et il présente des problèmes de confidentialité.

Certains se sont émus du fait que Google collecte de plus en plus d’informations. Pour montrer que ces reproches sont infondés, Google a décidé d’ouvrir le code source de GoogleUpdate, nom de code : Omaha.

« GoogleUpdate étant toujours actif sur votre système, il n’existe aucun moyen simple de l’arrêter, et puisque c’est un composant fondamental du logiciel Google qui y recourt, il ne s’installe pas de façon explicite. Certains seront surpris de le voir fonctionner, et chez Google, nous n’aimons pas décevoir nos clients. Nous avons travaillé dur pour répondre à ces inquiétudes. En libérant le code source d’Omaha, nous cherchons à rendre GoogleUpdate complètement transparent. Évidemment, nous comprenons que tout le monde n’ait ni la volonté ni la capacité d’examiner notre code dans le détail, mais nous espérons que ceux qui le feront confirmeront que GoogleUpdate sert bien à maintenir votre logiciel à jour. »

Un logiciel à jour en permanence empêche les logiciels malveillants d’exploiter les failles de sécurité, signale plus facilement les bogues et est constamment amélioré, mais Google devrait fournir une interface qui nous laisserait contrôler combien de fois le service demande à être mis à jour et même le désactiver. Certains utilisateurs avancés estiment que fonctionnement permanent de l’outil de mise à jour de Google représente une violation de leur droit de regard en tant qu’utilisateurs, une faille de sécurité potentielle et une charge indésirable sur leur système et leurs ressources réseau, qui sont déjà très sollicités.

Notes

[1] Crédit photo : Larsz (Creative Commons By-Sa)




Numérique, droit d’auteur et pédagogie

Mr. Theklan - CC by-saPour ceux qui arrivent encore à résister aux sollicitations permanentes d’Internet pour réussir l’exploit de parcourir jusqu’au bout de longs documents, nous vous proposons aujourd’hui la lecture d’un article de Jean-Pierre Archambault, paru initialement dans la revue Terminal, qui interroge le présent mais surtout l’avenir des ressources pédagogiques à l’ère du numérique.

Parce que si l’on n’y prend pas garde, on pourrait bien vite se retrouver peu ou prou en face des mêmes tensions que celles qui ont été mises à jour lors de l’examen du projet de loi Création et Internet. Quid en effet d’un monde[1] où la propriété finirait par contraindre de trop l’accès et le partage, a fortiori à l’école ?

Numérique, droit d’auteur et pédagogie

Jean-Pierre Archambault
Terminal n° 102, Automne-Hiver 2008-2009, édition l’Harmattan, p. 143-155.

Les ressources pédagogiques utilisées dans les cours sont l’un des cœurs de l’enseignement, correspondant à des démarches et des conceptions d’apprentissage. Il y a les ressources que se procurent les enseignants. Éditées à des fins explicitement pédagogiques ou matériaux bruts non conçus initialement pour des usages scolaires, mais y trouvant naturellement leur place, comme une œuvre musicale ou une reproduction de tableau. Leurs modèles économiques et leurs modalités de propriété intellectuelle, vis-à-vis de l’institution éducative sont nécessairement distincts.

Il y a aussi les ressources produites par les enseignants eux-mêmes, aujourd’hui dans le contexte radicalement nouveau issu de l’omniprésence de l’ordinateur et d’Internet, à des échelles dont les ordres de grandeur sont sensiblement différents de ceux de l’ère du pré-numérique. Elles sont élaborées dans des processus collaboratifs qui appellent nécessairement des réponses en termes de droits d’auteur de nature à permettre et favoriser l’échange par une circulation fluide des documents.

La problématique juridique est vaste. Nous examinerons les licences de logiciels et de ressources libres – certains points qui font débat comme la sécurité juridique, considération importante pour les établissements scolaires. En effet, elles éclairent et illustrent la situation nouvelle et irréversible créée par l’irruption du numérique dans les processus de création de biens informationnels et la place de ceux-ci, sans cesse croissante, relativement et en valeur absolue. Nous poserons la question de l’exception pédagogique, en relation avec les missions de l’École et l’exercice concret du métier d’enseignant, au temps nouveau du numérique.

Un modèle français

Les ressources pédagogiques, au premier rang desquelles les manuels scolaires, mais aussi la banale préparation de cours, l’article ou la photographie « sur laquelle on est tombé »… ont toujours joué un rôle important dans l’exercice du métier d’enseignant, variable selon les disciplines. Comme support de cours bien sûr, mais aussi comme vecteur de mise en oeuvre de nouveaux programmes ou support de formation (derrière un scénario pédagogique, il y a toujours une pratique professionnelle). Il existe un modèle français de l’édition scolaire dont la figure centrale, le manuel des élèves, relève pour l’essentiel du secteur privé. Ce modèle a acquis ses lettres de noblesse et fait ses preuves depuis deux siècles. L’histoire de l’édition scolaire en France est l’histoire des relations entre trois acteurs majeurs, l’État, les éditeurs et les auteurs – des enseignants et des inspecteurs – et de leurs rapports de force mouvants, dans lesquels il arrive que la technique intervienne. Ainsi, à partir de 1811, un auteur ne peut plus soumettre directement à l’État un manuscrit sous prétexte, parmi d’autres raisons, que son examen est long et difficile. Une proposition de manuel doit être obligatoirement communiquée sous forme d’imprimé. L’éditeur devient, de fait, incontournable.

Depuis une quarantaine d’années, les manuels scolaires se sont profondément transformés. L’iconographie occupe jusqu’à 50 % de la surface. L’ouvrage permet des lectures plurielles et des usages multiples, qui préfigurent ceux de l’hypermédia. Il n’y a plus de cours en tant que tel… Le résultat combiné de cette complexité croissante des manuels, de la concurrence des méthodes actives et de la souplesse de la photocopie est sans appel : on constate depuis les années quatre-vingt une tendance à la perte de vitesse de l’utilisation du manuel traditionnel, même si l’attachement symbolique demeure[2][3]. L’enfant chéri de l’édition scolaire connaît une forme de crise…

Une rupture

…et le numérique arrive dans ce contexte. Rude concurrent ! En effet, le manuel scolaire, ce livre d’une centaine de pages, qu’on ne lit plus d’une façon linéaire mais dans lequel on navigue avec des index et des renvois, ce livre ne saurait rivaliser avec Internet et le multimédia, leurs hyperliens, leurs millions de pages et leurs outils de recherche automatisée. Le livre n’est désormais plus « l’enfant unique ».

Plus généralement, le numérique transforme radicalement le paysage éditorial installé. Certes, les enseignants ont toujours réalisé des documents à l’intention de leurs élèves, en préparant leurs cours. Jusqu’à l’arrivée de l’ordinateur et d’Internet, une élaboration collaborative avec des collègues et la visibilité des ressources produites ne pouvaient aller au-delà d’un cercle restreint et rapproché. Modifier un document écrit à la main était et demeure une opération lourde, qui plus est quand il circule et que chacun y met sa griffe. Dans les années 70 encore, les photocopieuses étaient rarissimes, les machines à alcool fastidieuses à utiliser.

Des échanges sur une plus grande échelle supposaient de mettre en forme des notes manuscrites, et la machine à écrire manquait de souplesse, ne tolérant pas vraiment les fautes de frappe. Le manuel scolaire était alors la seule perspective pour une diffusion élargie, l’éditeur le passage obligé, et on lui accordait d’autant plus facilement des droits sur la fabrication des ouvrages que l’on ne pouvait pas le faire soi-même ! Mais, aujourd’hui, les conditions de la production des ressources pédagogiques, numériques pour une part en augmentation régulière, ont donc radicalement changé, du fait de la banalisation des outils informatiques de réalisation des contenus (du traitement de texte aux logiciels de publication) et d’Internet qui favorise à la fois les productions individuelles et le développement du travail collectif des enseignants, dans leur établissement, ou disséminés sur un vaste territoire, à la manière des programmeurs qui écrivent des logiciels libres.

Il y a une transférabilité de l’approche du libre, des logiciels à la réalisation des autres biens immatériels. Internet permet aux auteurs de toucher un vaste public potentiel qui peut aisément reproduire leurs documents, les utiliser, les modifier… La profusion des ressources éducatives que l’on peut consulter sur Internet est là pour en témoigner. En nombre, les enseignants auteurs-utilisateurs sont devenus un acteur autonome à part entière de l’édition scolaire. On peut, pour le moins, parler de turbulences dans le secteur[4][5].

Sésamath

Cette association est synonyme d’excellence en matière de production pédagogique et de communauté d’enseignants-auteurs-utilisateurs. En effet, Sésamath a reçu une mention d’honneur pour le prix 2007 Unesco-Roi Hamad Bin Isa Al-Khalifa sur l’utilisation des technologies de l’information et de la communication dans l’éducation. L’Unesco a décidé d’attribuer une mention spéciale au projet de manuel libre « pour la qualité de ses supports pédagogiques et pour sa capacité démontrée à toucher un large public d’apprenants et d’enseignants ». L’association a également été récompensée aux Lutèce d’Or (Paris, capitale du libre). Elle regroupe une soixantaine de professeurs de mathématiques de collèges. De l’ordre de 400 contributeurs-auteurs utilisent régulièrement les outils de travail coopératif qu’elle a mis en place (Wiki, Spip, forums, listes de diffusion…). Animée d’une volonté forte de production de ressources sous licence libre, et si possible formats ouverts, Sésamath ne soutient que des projets collaboratifs dont elle favorise et encourage les synergies. L’association donne les résultats : environ un million de visiteurs sont comptabilisés chaque mois sur l’ensemble de ses sites. Parmi les projets soutenus par l’association figure Mathenpoche. Dix académies hébergent le logiciel sur un serveur local, en plus du serveur mis à disposition par Sésamath pour les professeurs des autres académies, en partenariat avec le Centre de ressources informatiques de Haute-Savoie (Citic74).

Ce sont ainsi 5 000 professeurs qui utilisent la version réseau de Mathenpoche à laquelle sont inscrits 260 000 élèves. Plus de 160 000 connexions élèves sont enregistrées sur les serveurs chaque mois, auxquelles il faut ajouter 236 000 connexions en accès libre sur le site public de Mathenpoche. MathémaTICE est une revue en ligne sur l’intégration des TICE dans l’enseignement des mathématiques, née en septembre 2006. Enfin, Le Manuel Sésamath pour la classe de cinquième, premier manuel scolaire libre, fruit du travail collaboratif d’une cinquantaine de collègues, s’est vendu à 72 000 exemplaires à la rentrée 2006. Le Manuel Sésamath pour la quatrième s’est vendu, lui, à plus de 90 000 exemplaires en septembre 2006. à n’en point douter, en cette rentrée 2008, le Manuel de troisième connaîtra le succès, comme ses prédécesseurs.

Les communautés d’enseignants auteurs-utilisateurs se multiplient[6][7][8]. Utilisant à plein les potentialités d’interaction du Web, elles fonctionnent comme les communautés de développeurs de logiciels libres. Leurs membres ont une vision et une identité communes. Organisées pour fédérer les contributions volontaires, dans une espèce de synthèse de « la cathédrale et du bazar », ces communautés répondent à des besoins non ou mal couverts et doivent compter en leur sein suffisamment de professionnels ayant des compétences en informatique. Les maîtres mots de la division du travail y sont « déléguez » et « distribuez ».

Les licences de logiciels libres

Les logiciels libres sont désormais une composante à part entière de l’informatique[9]. Parmi les raisons qui expliquent cette rapide évolution, le fait que l’approche du libre, qui relève du paradigme de la recherche scientifique, est en phase avec la nature profonde de l’activité d’écriture de logiciels (difficile par exemple de mener des projets combinant des millions et des millions de lignes de programme quand on n’a pas accès au code source) et qu’elle est ainsi gage d’efficacité et de qualité. Les enseignants utilisent des logiciels libres et certains en produisent. Pour autant, le long fleuve du libre, en général et dans l’éducation en particulier, n’est pas toujours tranquille. Intimement liées au modèle économique, il y a les réponses en termes de droit d’auteur. Et il arrive que des questions juridiques soient mises en avant, notamment celles ayant trait à la compatibilité des licences libres avec le droit français, à une certaine insécurité juridique. Qu’en est-il exactement ?[10].

La typologie classique des licences Logiciel libre comprend deux ensembles principaux, licences avec ou sans copyleft, et un cas spécial : le domaine public. La caractéristique des licences sans copyleft, dites type BSD est de ne pas obliger à conserver la même licence pour une oeuvre dérivée. Le code des logiciels utilisant ces licences peut donc être intégré dans du logiciel propriétaire ou du logiciel libre avec copyleft.

Les licences avec copyleft exigent qu’un logiciel dérivé conserve son statut de logiciel libre, notamment par la fourniture du code source de la version modifiée. En pratique, cela signifie qu’il n’est pas possible de diffuser un logiciel propriétaire incorporant du code utilisant une telle licence. La principale licence de ce type est la GNU General Public licence (GNU GPL) de la FSF (Free Software Fondation). D’autres licences de ce type sont la Lesser General Public License (LGPL) de la FSF, qui offre la possibilité de lier dynamiquement le programme à une application propriétaire. La LGPL est notamment utilisée par le projet OpenOffice.org. La licence CeCILL est une licence francophone proposée par le CEA, le CNRS et l’Inria pour les mondes de la recherche, de l’entreprise et des administrations, et plus généralement pour toute entité ou individu désirant diffuser ses résultats sous licence de logiciel libre, en toute sécurité juridique. Les auteurs de CeCILL l’ont déclarée compatible avec la GNU GPL. Et la FSF a indiqué que CeCILL faisait partie des licences compatibles avec la GNU GPL. Chaque licence doit préciser les licences qui lui sont compatibles.

« Une complexité conceptuelle de la licence GPL est qu’elle prétend ne pas être un contrat, ce qui peut poser des difficultés de compréhension en Europe ». Si, aux États-Unis, la GPL s’appuie essentiellement sur le copyright, en France et dans de nombreux pays d’Europe, l’habitude est de licencier les logiciels par des contrats, acceptés par les deux parties avec les clauses de responsabilité inhérentes aux contrats logiciels. « L’utilisation licite d’un programme sous GNU GPL n’impose pas une relation contractuelle entre l’utilisateur et le titulaire des droits d’auteur »[11]. Cette différence d’appréciation et la volonté d’avoir une licence d’origine française ou européenne basée sur une mécanique contractuelle sont à l’origine de la rédaction des licences CeCILL et EUPL. « Néanmoins, la validité de la licence GPL a été confirmée à plusieurs reprises par des tribunaux européens ». La diffusion sous des licences d’origine américaine comme la GNU GPL pouvant poser certaines questions de droit, engendrant des incertitudes qui peuvent dissuader des entreprises ou des organisations d’utiliser ou d’apporter leurs contributions aux logiciels libres. Dans ce contexte, le Cea, le Cnrs et l’Inria ont donc entrepris la rédaction de contrats de licences de logiciels libres visant à accroître la sécurité juridique « en désignant un droit applicable (et les tribunaux compétents pour juger d’éventuels litiges), en l’occurrence le droit français, conforme au droit européen et qui a vocation à concerner 27 pays », à préciser exactement l’étendue des droits cédés et à encadrer « la responsabilité et les garanties accordées par les concédants dans les limites permises par le droit français et européen ». Il y a une version française qui, avec la version anglaise fait également foi. Elle s’impose, de par la loi, aux organismes de recherche et établissements publics français.

L’utilisateur secondaire, c’est-à-dire la personne admise à utiliser un logiciel libre (vous et moi) à l’exclusion de tout acte de copie, de modification, d’adaptation et de distribution, est dans une situation juridique spéciale. Il n’a pas de relation contractuelle avec le concédant de la licence dans la mesure où il n’a pas consenti à la licence et ne connaît pas le plus souvent le concédant, auteur du logiciel libre qu’il utilise. « Il ne paraît pas possible de faire valoir un éventuel consentement implicite à la conclusion d’une licence et ce d’autant plus que le droit français ne permet pas en cette matière les accords tacites ».

Ces difficultés tiennent pour une part au droit, français notamment, qui, s’il accorde aux auteurs un droit exclusif sur leurs créations, ne dit rien d’explicite quant à des modalités leur permettant de faire connaître leurs volontés concernant les usages de leurs œuvres. Il y a là un vide juridique, sinon une forme d’incohérence. Cela étant, les licences de type GPL sont particulièrement protectrices des droits des utilisateurs dans la mesure où les contributeurs successifs s’obligent les uns les autres à respecter les dits droits, en s’appuyant sur les traités internationaux en matière de droit d’auteur. De plus, la publication et l’utilisation par les administrations françaises et européennes de licences libres (comme CeCILL et EUPL) traduisent la maturation juridique de la diffusion du libre, contribuant ainsi de fait, plus que fortement, à créer un environnement « sécurisé » pour les utilisateurs. Et puis, il y a des millions et des millions d’utilisateurs de logiciels libres en France et dans le monde. Une des vertus du droit étant de s’adapter aux évolutions, technologiques en particulier… l’insécurité, très relative, ne manquera pas de n’avoir été que momentanée.

Les licences de ressources libres

Les enseignants et les institutions éducatives ont encore tendance à mettre en ligne des ressources pédagogiques sans se poser explicitement la question de leurs licences. D’où un certain flou. Mais les licences de ressources libres ont commencé à faire leur chemin dans les problématiques éditoriales. Leur objectif est de favoriser le partage, la diffusion et l’accès pour tous sur Internet des œuvres de l’esprit, en conciliant les droits légitimes des auteurs et des usagers. Cela passe par des modalités juridiques correspondant aux potentialités de la Toile, notamment à cette possibilité de diffusion quasi instantanée d’une ressource immatérielle à des milliers et des millions de personnes. Le projet Creative Commons s’y emploie[12]. Il a vu le jour à l’université de Standford, au sein du Standford Law School Center for Internet et Society, Lawrence Lessig en étant l’un des initiateurs. Il s’agit donc d’adapter le droit des auteurs à Internet.

Creative Commons renverse le principe de l’autorisation obligatoire. Il permet à l’auteur d’autoriser par avance, et non au coup par coup, certains usages et d’en informer le public. Il est autorisé d’autoriser. Métalicence, Creative Commons permet aux auteurs de se fabriquer des licences, dans une espèce de jeu de Lego simple, constitué de seulement quatre briques. Première brique : attribution. L’utilisateur, qui souhaite diffuser une œuvre, doit mentionner l’auteur. Deuxième brique : commercialisation. L’auteur indique si son travail peut faire l’objet ou pas d’une utilisation commerciale. Troisième brique : non-dérivation. Un travail, s’il est diffusé, ne doit pas être modifié. Quatrième brique : partage à l’identique. Si l’auteur accepte que des modifications soient apportées à son travail, il impose que leur diffusion se fasse dans les mêmes termes que l’original, c’est-à-dire sous la même licence. La possibilité donnée à l’auteur de choisir parmi ces quatre composantes donne lieu à onze combinaisons de licences. Grâce à un moteur de licence proposé par le site de Creative Commons, l’auteur obtient automatiquement un code HTML à insérer sur son site qui renvoie directement vers le contrat adapté à ses désirs.

L’exception pédagogique

Les enseignants utilisent des documents qu’ils n’ont pas produits eux-mêmes, dans toutes les disciplines, mais particulièrement dans certaines d’entre d’elles comme l’histoire-géographie, les sciences économiques et sociales ou la musique : récitation d’un poème, lecture à haute voix d’un ouvrage, consultation d’un site Web… Ces utilisations en classe ne sont pas assimilables à l’usage privé. Elles sont soumises au monopole de l’auteur dans le cadre du principe de respect absolu de la propriété intellectuelle. Cela peut devenir mission impossible, tellement la contrainte et la complexité des droits se font fortes. Ainsi pour les photographies : droits du photographe, de l’agence, droit à l’image des personnes qui apparaissent sur la photo ou droit des propriétaires dont on aperçoit les bâtiments… Difficile d’imaginer les enseignants n’exerçant leur métier qu’avec le concours de leur avocat ! Mais nous avons vu les licences Creative Commons qui contribuent, en tout cas sont un puissant levier, à développer un domaine public élargi de la connaissance. Et la GNU GPL et le CeCILL qui permettent aux élèves et aux enseignants de retrouver, dans la légalité, leurs environnements de travail sans frais supplémentaires, ce qui est un facteur d’égalité et de démocratisation. Mais la question de l’exception pédagogique dans sa globalité, une vraie question, reste posée avec une acuité accrue de par le numérique : quelque part, le copyright est antinomique avec la logique et la puissance d’Internet.

L’exception pédagogique, c’est-à-dire l’exonération des droits d’auteurs sur les oeuvres utilisées dans le cadre des activités d’enseignement et de recherche, et des bibliothèques, concerne potentiellement des productions qui n’ont pas été réalisées à des fins éducatives. Par exemple, le Victoria and Albert Museum de Londres, à l’instar du Metropolitan Museum of art de New York, a décidé de ne plus facturer le droit de reproduction des œuvres de sa collection lorsqu’elles sont publiées à des fins d’enseignement, leur mise en ligne restant cependant soumise à conditions 13.

La société Autodesk a ouvert un portail étudiant de l’ingénierie et de la conception numérique depuis lequel les élèves, étudiants et enseignants de toutes les disciplines peuvent notamment télécharger gratuitement des versions pour étudiants de ses logiciels, toutes ses ressources concernant la conception architecturale, la conception graphique, le génie civil et la conception mécanique et électrique.

L’activité d’enseignement est désintéressée et toute la société en bénéficie. L’éducation n’est pas un coût mais le plus nécessaire (et le plus noble) des investissements. L’exception pédagogique a donc une forte légitimité sociétale. De plus, entrés dans la vie active, les élèves auront naturellement tendance à, par exemple, préconiser les logiciels qu’ils auront utilisés lors de leur scolarité. En la circonstance le système éducatif promeut des produits qu’il a pendant longtemps payé cher (avant que le libre contribue à une baisse sensible des prix pratiqués). D’un strict point de vue économique, il ne serait nullement aberrant que ce soit au contraire les éditeurs qui payent pour que les élèves utilisent leurs produits ! On n’en est pas encore là. Sans nier certains excès auxquels la photocopie non maîtrisée peut donner lieu, il ne faut pas oublier que les établissements d’enseignement contribuent déjà à la défense du droit d’auteur en versant des sommes importantes (près de trois millions d’euros de la part des universités) pour la photocopie d’œuvres protégées, au nom de la fameuse lutte contre le « photocopillage ». Les bibliothèques, quant à elles, doivent déjà faire face au paiement de droits de prêt diminuant fortement leur pouvoir d’achat.

On distingue le cas de l’édition scolaire dont la raison d’être est de réaliser des ressources pour l’éducation, et qui bien évidemment doit en vivre. L’édition scolaire traverse une période de turbulences de par le numérique. Les questions posées sont notamment celles de son positionnement par rapport aux productions enseignantes, du caractère raisonnable ou non des prix pratiqués, de l’existence d’un marché captif, d’un nouveau modèle économique combinant licences libres et rémunération sur les produits dérivés… mais pas celle du bien-fondé d’une légitime rémunération d’un travail fait, dans le contexte d’une école républicaine gratuite et laïque. Deux types de solutions existent pour assurer l’exception pédagogique : la voie contractuelle et la voie législative.

La voie contractuelle

En mars 2006, le ministère de l’Éducation nationale a signé des accords avec les syndicats d’éditeurs. Ils concernent les œuvres des arts visuels ; les enregistrements sonores d’oeuvres musicales, la vidéo-musique et les interprétations vivantes des œuvres musicales ; les œuvres cinématographiques et audiovisuelles ; les livres et les musiques imprimées ; les publications périodiques imprimées. Ils autorisent et limitent certains usages d’œuvres protégées par les enseignants, à des fins d’illustration des activités d’enseignement et de recherche. Ils couvrent une période allant de janvier 2007 à 2009, date à laquelle une exception sera inscrite dans le Code de la Propriété intellectuelle (CPI).

Les publics visés sont notamment la classe et la formation initiale. Les cas autorisés sont la diffusion ou projection en classe d’œuvres protégées de tout enregistrement audio (même intégral), de toute image, texte ou de partition, de toute œuvre audiovisuelle obtenue par un canal hertzien gratuit, de toute représentation (interprétation en particulier) en classe d’une œuvre ; la reproduction papier d’œuvres protégées pour les élèves de la classe (10 % maximum d’un livre ou d’une partition, 30 % d’un périodique) avec selon les types d’établissements un quota de copies par élève et par an ; la reproduction numérique d’images protégées donnée à titre temporaire pour toute œuvre diffusée en classe, avec un maximum de 20 images incorporées dans chaque travail pédagogique ou de recherche mis en ligne sur Intranet et des limitations (400 × 400 pixels, 72 dpi, pas de recadrage, pas d’accès direct aux œuvres, pas d’indexation, déclaration des œuvres par formulaire à l’AVA) ; la diffusion audio et audiovisuelle lors de concours ou colloques (extraits audio d’une œuvre limités à 30 secondes dans la limite de 10 % de la durée totale chacun, représentants, additionnés, moins de 15 % du total).

Les accords ne concernent notamment pas l’analyse d’une œuvre pour elle-même, la formation continue, l’utilisation en classe de DVD ou de VHS du commerce (les droits de diffusions ou de prêt doivent être alors acquittés par les centres de documentation des établissements), la création de bases d’œuvres protégées numérisées consultables en Intranet (sous forme de fichiers image, son ou vidéo en particulier), la distribution de fichiers numériques d’œuvres protégées aux élèves, la possibilité de faire des liens profonds sur des sites pour disposer, par exemple, d’extraits audio organisés de manière thématique.

Pour les livres et les musiques imprimées, les accords prévoient des vérifications (Article 10) : « Les représentants des ayants droit pourront procéder ou faire procéder à des vérifications portant sur la conformité des utilisations d’œuvres visées par l’accord au regard des clauses de l’accord. Les agents assermentés de chaque représentant des ayants droit auront la faculté d’accéder aux réseaux informatiques des établissements afin de procéder à toutes vérifications nécessaires. Ils pourront contrôler notamment l’exactitude des déclarations d’usage et la conformité de l’utilisation des œuvres visées par l’accord avec chaque stipulation de l’accord. En cas de manquement à ces obligations contractuelles, les représentants des ayants droit pourront requérir du chef d’établissement ou du responsable du réseau le retrait des œuvres ou extraits d’œuvres visées par l’accord utilisé illicitement. En cas de contestation sur l’application de l’accord, le comité de suivi se réunit pour constater l’absence de respect d’une clause de l’accord et proposer une solution aux parties. » Cette possibilité d’intrusion sur les réseaux des établissements scolaires a été diversement appréciée.

Des entraves à l’activité pédagogique

Les limitations prévues dans les accords (nombre de pixels, durée des extraits…) ne sont pas sans poser de réels problèmes pédagogiques. Yves Hulot, professeur d’éducation musicale à l’IUFM de Versailles (Cergy-Pontoise), en pointent quelques-uns. La combinaison d’une résolution limitée à 400 × 400 pixels et d’une définition de 72 dpi de la représentation numérique d’une œuvre avec une utilisation portant sur l’œuvre intégrale empêche le recours à des photos de détails des oeuvres.

Par exemple : « Le tableau Les noces de Cana de Véronèse comporte une intéressante viola da braccio au premier plan. Avec une telle limite de résolution sur cet immense tableau, il est impossible de projeter et de zoomer convenablement sur ce détail. Qui peut croire justifier de telles limitations ? » La durée des extraits d’une oeuvre musicale crée également des obstacles de nature pédagogique. « Si je travaille en classe de troisième sur la compagnie des Ballets russes, il me semble évident que pour apprécier l’importance de la révolution qu’elle apporta, une analyse d’au moins deux ballets s’impose, en l’occurrence L’après-midi d’un faune et Le sacre du Printemps, ce qui permet d’aborder deux musiciens capitaux, Debussy et Stravinsky. Le premier dure environ dix minutes, le second environ trente. Habitués que sont nos élèves à côtoyer majoritairement le genre chanson, il me semble utile de les confronter à d’autres durées et d’autres langages musicaux ou chorégraphiques. Mais je crains qu’à trop limiter l’activité pédagogique des enseignants on finisse par empêcher ceux qu’ils éduquent de réellement avoir les clés d’accès à la culture ! »

La voie législative

Les contenus numériques en ligne sont quasiment absents des accords précités. Est-ce un hasard ? L’affrontement fondamental est-il prudemment différé ? C’est principalement l’écrit numérique qui est envisagé, l’audio et l’audiovisuel en étant exclus. La mise en ligne d’images protégées suppose qu’elles soient incorporées à un travail pédagogique ou de recherche, et qu’elles soient limitées en qualité et en quantité. Ces accords couvrent essentiellement des activités de diffusion en classe, les seuls cas de reproduction à des fins de distribution concernent la photocopie. Les possibilités d’échange de fichiers numériques avec les élèves et les étudiants sont donc limitées, tout comme les échanges entre collègues lors de travaux interdisciplinaires.

Ils favorisent une offre éditoriale qui est de type catalogue et non sur-mesure ou granulaire malgré les développements récents de l’offre numérique. « En dehors du cadre et des limites prévus par les accords, l’obtention dans l’enseignement des droits d’exploitation d’œuvres protégées, représente une double difficulté : savoir à quels ayants droit demander les autorisations et avoir le budget éventuellement nécessaire pour s’en acquitter. D’où la nécessité de proposer un dispositif permettant aux enseignants d’être à la fois clairs du point de vue juridique et d’obtenir facilement les droits pour ce qu’ils se proposent de faire pour leurs élèves ou leurs étudiants. »[13]

Les enjeux de l’exception pédagogique demeurent

À l’occasion de la transposition par le Parlement, en 2006, de la directive européenne sur les Droits d’auteurs et les droits voisins dans la société de l’information (Dadvsi), qui prévoit la possibilité d’une exception pédagogique, la CPU (Conférence des présidents d’université) et l’ADBU (Association des directeurs de bibliothèque universitaire), constatant que la France était est l’un des rares pays européens à ne pas l’avoir retenue dans son projet de loi, redoutaient que cette législation n’aboutisse à une domination accrue de la littérature de langue anglaise déjà majoritaire parmi les ressources d’information disponibles en ligne, notre seule référence devenant Google et nos seules sources étant les données anglo-saxonnes.

Un amendement adopté lors du débat de 2006, applicable en 2009 (CPI L122-5 3-e), définit l’exception pédagogique comme : « La représentation ou la reproduction de courtes œuvres ou d’extraits d’œuvres, autres que des œuvres elles-mêmes conçues à des fins pédagogiques, à des fins exclusives d’illustration ou d’analyse dans le cadre de l’enseignement et de la recherche, à l’exclusion de toute activité ludique ou récréative, et sous réserve que le public auquel elles sont destinées soit strictement circonscrit au cercle des élèves, étudiants, enseignants et chercheurs directement concernés, que leur utilisation ne donne lieu à aucune exploitation commerciale, et qu’elle soit compensée par une rémunération négociée sur une base forfaitaire nonobstant la cession du droit de reproduction par reprographie mentionnée à l’article L. 122-10 ». Il comporte des aspects restrictifs. Le rendez-vous de 2009 est important.

Un usage loyal

Pierre-Yves Gosset, délégué de Framasoft, se prononce pour un système de fair use à l’américaine. Aux États-Unis, le fair use, (usage loyal, ou usage raisonnable, ou usage acceptable) est un ensemble de règles de droit, d’origine législative et jurisprudentielle, qui apportent des limitations et des exceptions aux droits exclusifs de l’auteur sur son œuvre (copyright). Il essaie de prendre en compte à la fois les intérêts des bénéficiaires des copy – rights et l’intérêt public, pour la distribution de travaux créatifs, en autorisant certains usages qui seraient, autrement, considérés comme illégaux. Des dispositions similaires existent également dans beaucoup d’autres pays.

Les critères actuels du fair use aux États-Unis sont énoncés au titre 17 du code des États-Unis, section 107 (limitations des droits exclusifs : usage loyal (fair use) : « Nonobstant les dispositions des sections 106 et 106A, l’usage loyal d’une oeuvre protégée, y compris des usages tels la reproduction par copie, l’enregistrement audiovisuel ou quelque autre moyen prévu par cette section, à des fins telles que la critique, le commentaire, l’information journalistique, l’enseignement (y compris des copies multiples à destination d’une classe), les études universitaires et la recherche, ne constitue pas une violation des droits d’auteur. Pour déterminer si l’usage particulier qui serait fait d’une œuvre constitue un usage loyal, les éléments à considérer comprendront : l’objectif et la nature de l’usage, notamment s’il est de nature commerciale ou éducative et sans but lucratif ; la nature de l’œuvre protégée ; la quantité et l’importance de la partie utilisée en rapport à l’ensemble de l’œuvre protégée ; les conséquences de cet usage sur le marché potentiel ou sur la valeur de l’œuvre protégée. Le fait qu’une œuvre ne soit pas publiée ne constitue pas en soi un obstacle à ce que son usage soit loyal s’il apparaît tel au vu de l’ensemble des critères précédents ». « L’originalité du fair use par rapport aux doctrines comparables est l’absence de limites précises aux droits ouverts : alors que les autres pays définissent assez précisément ce qui est autorisé, le droit des États-Unis donne seulement des critères (factors) que les tribunaux doivent apprécier et pondérer pour décider si un usage est effectivement loyal. Par conséquent, le fair use tend à couvrir plus d’usages que n’en autorisent les autres systèmes, mais au prix d’un plus grand risque juridique. »

De la propriété à l’accès ?

Lors des Rencontres de l’Orme 2008, Frédérique Muscinési, médiatrice culturelle, a risqué le débat : « Aujourd’hui, l’intermédiaire ne peut plus constituer l’agent de la culture établie, ni du discours officiel. Il doit réfléchir, à l’heure des nouvelles technologies et de la substitution progressive de la propriété par la notion d’accès, à son rôle dans le cadre d’une probable et enfin réalisable démocratisation de la culture, non de sa consommation que son propre rôle antérieur rendait impossible ou invalidait, mais de sa création. » Elle a rappelé que « l’imitation et la modification sont à la base de la création entendue comme mémoire et transmission, puisqu’elles sont le moteur de l’apprentissage, processus ou objet même de la création ».

En conséquence, la propriété intellectuelle appliquée aux objets ou aux expériences artistiques, a passé d’être un appui aux auteurs à celui des industries culturelles qui, restreignant l’accès à l’objet de création, restreignent par là même ses possibilités. Culture et éducation cheminent ensemble, c’est bien connu…

Notes

[1] Crédit photo : Mr. Theklan (Creative Commons By-Sa)

[2] Les manuels scolaires : histoire et actualité, Alain Choppin, INRP, Hachette 1992

[3] « L’édition scolaire au temps du numérique », Jean-Pierre Archambault, Médialog n° 41

[4] Les turbulences de l’édition scolaire, Jean-Pierre Archambault, colloque SIF « Les institutions éducatives face au numérique », organisé par la Maison des Sciences de l’Homme de Paris-Nord, Paris les 12 et 13 décembre 2005

[5] Sur le blog du CNS (Canal numérique des savoirs), Laurent Catach (dictionnaires Le Robert) propose à ses collègues des voies de sortie des turbulences, leur demandant de se montrer optimistes : «  Éditeurs, ayez confiance, le web est une formidable opportunité, comme sans doute il n’en arrive que tous les quelques siècles… ». Il s’emploie à les rassurer : « Il est en effet logique et inévitable que plus la quantité d’informations augmente plus on a besoin de la hiérarchiser, de la filtrer, de la commenter, de l’animer et de la fédérer. Comment par exemple feront les élèves pour se repérer et trouver une juste information dans les 15 millions de livres numérisés de Google ? ». Il voit « se profiler un véritable eldorado éditorial ! ». Il met les points sur les i : « Nous avons à notre disposition un matériau informationnel extraordinaire (toute la richesse du web) à mettre en forme et à mettre en scène. Et l’information et sa mise en scène, n’est-ce pas là très précisément notre métier ?… La question n’est donc pas de savoir si les éditeurs scolaires ont un rôle à jouer sur le web : c’est une évidence. Et c’est même leur responsabilité vis-à-vis des jeunes générations de ne pas laisser les élèves se débrouiller tous seuls avec Internet. La seule et unique question est de savoir comment ils seront rémunérés. »

[6] Squeak – Hilaire Fernandes, « Squeak, un outil pour modéliser », EpiNet n° 86

[7] Abuledu

[8] Voir Wikipédia, notamment un « Wikipédia éducatif » et « Wikipédia : la rejeter ou la domestiquer », Éric Bruillard, Médialog n° 61

[9] Pour l’éducation voir « Les logiciels libres dans le système éducatif », Jean-Pierre Archambault et « Favoriser l’essor du libre à l’École », Jean-Pierre Archambault, Médialog n° 66

[10] Voir le Livre blanc sur les modèles économiques du libre, publié par l’April et Rapport du CSPLA (Conseil supérieur de la propriété littéraire et artistique) sur la diffusion ouverte des oeuvres de l’esprit

[11] Voir note 8, le Livre blanc sur les modèles économiques du libre, publié par l’April

[12] « Naissance d’un droit d’auteur en kit ? », Jean-Pierre Archambault, Médialog n° 55 et « Les licences Creative Commons dans le paysage éducatif de l’édition… rêve ou réalité ? », réflexions de Michèle Drechsler

[13] Arsmusicae Site d’information sur l’exception pédagogique pour l’enseignement et la recherche




Android de Google : un futur vrai système d’exploitation ?

Demi Brooke - CC byEt si l’air de rien, sans annonce ni fracas, Google était en train avec Android de nous pondre un système d’exploitation libre concurrent du trio GNU/Linux, Mac et PC ?

C’est aller un peu vite en besogne[1]. D’abord parce qu’Android repose sur le noyau Linux (dont il peut alors être vu comme l’une de ces distributions) et ensuite parce qu’il ne se destine pour le moment qu’à la téléphonie mobile.

Mais comme il est dit dans l’article traduit ci-dessous, on pourrait le retrouver bien vite dans des netbooks et alors on changerait immanquablement de catégorie…

Google sortira-t-il un OS Linux pour le desktop en 2009 ?

One giant step closer to the Google Linux desktop

Steven J. Vaughan-Nichols – 31 mars 2009 – ComputerWorld
(Traduction Framalang : Don Rico)

Google n’annonce toujours pas publiquement être sur le point de distribuer Android comme un OS de bureau Linux, mais HP, Asus et d’autres grands fabricants de machines sont apparemment en pourparlers avec l’entreprise de Mountain View afin de commercialiser des mini-portables équipés d’Android.

D’après un article du Wall Street Journal, Satjiv Chahil, un des vice-présidents de la branche PC de HP, a refusé d’affirmer ou de nier que le premier fabricant de PC au monde pourrait vendre des mini-portables ou des smart-phones tournant sous Android, mais il a en revanche confirmé que HP « s’intéressait » à ce système d’exploitation libre.

Hourra !

Nous savons d’ores et déjà qu’Android peut fonctionner comme système d’exploitation pour le desktop, car certains ont réussi la manip. Surtout, ceux qui y sont parvenus ne sont pas des hackers dont la seconde langue est le C++, mais deux journalistes. Si nous en sommes capables, alors tout le monde l’est. 🙂

La réaction habituelle des moutons windoziens quand on leur parle d’un OS Linux pour le desktop conçu par Canonical, Novell ou Red hat, c’est de crier au n’importe quoi. Pour Android, en revanche, ce n’est pas la même chanson.

En ce qui me concerne, je peux détailler de tête les différences entre Ubuntu, openSUSE, Fedora et une demi-douzaine d’autres déclinaisons de Linux pour le desktop. Mais soyons réalistes, seul un fana de Linux en est capable. La plupart des utilisateurs de PC savent peut-être que Linux est un autre système d’exploitation, et ils savent peut-être aussi que Red Hat est une grosse entreprise Linux, ou qu’Ubuntu est une version populaire de Linux. Pas plus.

Google, par contre, c’est différent. Quiconque se sert d’un ordinateur connaît Google. Quelqu’un qui aurait des réticences à essayer un PC tournant sous autre chose que Windows, et XP de préférence, pourrait très bien vouloir essayer un mini-portable sous Google. Maintenant que j’y pense, ça ne m’étonnerait pas le moins du monde que certains croient que c’est déjà Google qui fait marcher leur PC.

De là à utiliser un PC qui fonctionne pour de bon sous Google, il n’y a qu’un pas. Certes, il s’agirait en fait du système Linux Google Android pour le desktop, mais la grande majorité des utilisateurs ne s’en soucierait pas plus que des bases Linux sur lesquelles reposent le moteur de recherche Google. Tout ce qu’ils sauront, c’est que leur netbook ou leur portable fonctionne grâce à quelque chose dont ils connaissent le nom et auquel ils font confiance. En outre, puisque ces machines seront sous Linux, elles seront moins chères que leurs équivalents vendus avec Windows.

Au début de l’année, j’ai lancé l’idée que 2009 serait l’année idéale pour que Google attaque Microsoft de front sur le marché du desktop. Sachant à présent que des fabricants de PC sérieux jouent déjà avec l’idée de commercialiser des netbooks fonctionnant sous Android, je prédis à présent que cela se produira en 2009.

Notes

[1] Crédit photo : Demi Brooke (Creative Commons By)




Quand le Cned confond formation bureautique avec formation Microsoft

Sailor Coruscant - CC byNous sommes en mars 2009. Vous êtes un organisme public souhaitant offrir à son personnel une formation bureautique à distance. Comment vous y prendriez-vous ?

On pourrait définir et présenter les différentes fonctionnalités du traitement de texte, du tableur, du logiciel de présentation. Puis insister sur l’importance d’utiliser des formats ouverts. Et illustrer le tout avec des logiciels libres disponibles gratuitement pour tous les systèmes d’exploitation, comme la suite OpenOffice.org (qui a justement la bonne idée de produire un format ouvert, l’Open Document)[1].

Ce n’est visiblement pas l’option retenue par le Centre national d’enseignement à distance (plus connu sous l’acronyme Cned), dont l’un des enseignants à qui s’adresse cette formation, nous a fait parvenir le courriel suivant (c’est moi qui souligne) :

From: XXX
Date: 17 mars 2009
Subject: Formation bureautique à distance

Mesdames, Messieurs,

Dans le cadre de la mise en œuvre du plan de formation 2008/2011 de l’établissement, la Direction des ressources humaines de la Direction générale procède au recensement des besoins en formation bureautique à distance.

Vous avez la possibilité de suivre une formation aux logiciels Microsoft Outlook, Word, Excel et PowerPoint en ligne ou par le biais d’un CD-Rom.

Vous trouverez dans le document joint « organisation des formations » les différentes modalités des formations, des versions, en ligne ou sur CD-Rom.

Si vous êtes intéressé par l’une de ces formules, vous voudrez bien renseigner le formulaire joint et le renvoyer avant le 15 avril 2009, auprès de votre institut de rattachement.

La Direction des ressources humaines reste à votre disposition pour tout renseignement complémentaire.

Cordialement,

XXX
Direction des ressources humaines
Cned – Direction générale

Ce mail était donc accompagné d’une pièce-jointe au format .doc où l’on peut lire explicitement les informations suivantes :

  • « Pendant votre formation, vous travaillez directement dans l’environnement Microsoft correspondant au logiciel étudié. »
  • « Les formations ne sont pas compatibles Mac et Linux. »
  • « Formation demandée (2 au maximum) : Word – Excel – PowerPoint – Outlook. »

Pour rappel, il s’agit d’un « plan de formation 2008/2011 »…

On pourra toujours m’objecter que le Cned ne fait que s’adapter à la demande puisque tous ses enseignants travaillent sur la suite Microsoft Office. D’abord cela reste à prouver mais admettons que ce soit bien le cas (n’oublions pas qu’il y a une véritable machine de guerre économique déployée dans les coulisses pour qu’il en soit ainsi). Est-ce une raison suffisante pour ne pas adopter et faire adopter de bonnes pratiques, surtout lorsque l’on se définie comme une institution éducative de formation ?

Pensez une seconde aux conseils que ces enseignants ainsi « formés » prodigueront aux élèves dont ils ont la charge à distance ! Vont-ils eux aussi confondre « Word » avec « traitement de texte » ? Qu’adviendra-t-il lorsqu’ils recevront un fichier .doc ? Et bonjour le fracture numérique, puisque tous ces élèves n’ont pas forcément l’OS Windows et la suite MS Office (dûment achetés) à disposition !

La noble mission de service public du Cned ne doit pas s’arrêter aux portes de la formation numérique.

Notes

[1] Crédit photo : Sailor Coruscant (Creative Commons By)




Désobéissance civile en vue à l’école ?

ComputerHotline - CC by-saJusqu’où va-t-on descendre ? C’est la question que l’on peut légitimement se poser avec cette loi Création et Internet qui, chaque jour passant, l’éloigne de la solution et la rapproche du problème.

Dans la famille déjà nombreuse des effets collatéraux néfastes du projet de loi, je demande désormais… l’éducation.

Lors d’un récent communiqué, L’April s’était fort justement inquiétée d’un article introduit au Sénat prévoyant que élèves « reçoivent une information, notamment dans le cadre du brevet informatique et internet des collégiens (B2i), sur les risques liés aux usages des services de communication au public en ligne, sur les dangers du téléchargement et de la mise à disposition illicites d’œuvres culturelles pour la création artistique, ainsi que sur les sanctions encourues en cas de manquement à l’obligation définie à l’article L. 336-3 du code de la propriété intellectuelle et de délit de contrefaçon. Les enseignants sont également sensibilisés. »

Commentaires de l’April :

Les promoteurs du projet de loi Hadopi affichent une ambition d’instaurer de nouvelles formes de soutien aux artistes et de nouveaux modèles économiques pour revivifier la filière culturelle. Pourtant, ils occultent purement et simplement la libre diffusion des contenus et œuvres sous licences ouvertes et libres, alors qu’ils constituent une offre légale abondante pour le public3 donnant lieu à une rémunération de leurs auteurs.

Ces licences sont un outil adéquat du partage de la connaissance et des savoirs, et se montrent particulièrement adaptées au monde de l’éducation. Inspirées du mouvement pour le logiciel libre, les licences d’œuvres en partage ouvrent de nouveaux modèles économiques en phase avec les nouvelles technologies.

Et de citer alors deux articles du Framablog : l’étude riche d’enseignements du cas musical Trent Reznor, et la situation un peu ubuesque dans laquelle se retrouve les enseignants lorsqu’ils utilisent des « œuvres protégées » (non copyleft) en situation d’apprentissage.

Les craintes de l’April étaient malheureusement bien fondées puisqu’aujourd’hui l’Assemblée a ni plus ni moins rejeté un amendement de pur bon sens de Martine Billard souhaitant, dans un souci de « pluralisme et neutralité » que l’article en question évoque également « les avantages pour la création artistique du téléchargement et de la mise à disposition licites des contenus et œuvres sous licences ouvertes ou libres » (pour plus de détails lire l’article de Guillaume Champeau reproduit ci-dessous ainsi que la transcription exacte de l’échange sur le site de l’April).

Comme quoi certains masques tombent définitivement.

C’est d’autant plus inepte que ces licences ouvertes ou libres seront, ma main à couper, l’une des prochaines révolutions scolaires, non plus restreintes à la création artistique mais à tout ce qui touche aux ressources éducatives.

Par anticipation, je m’engage d’ores et déjà à faire acte de « désobéissance civile » lorsqu’arrivera le temps où mes élèves seront censés recevoir l’information en question dans le cadre du B2i[1]. Cette information sera bien diffusée mais elle sera immanquablement accompagnée d’une sensibilisation aux licences libres et ouvertes et d’un débat sur les tenants et aboutissants des uns et des autres.

Gageons alors que mes élèves sauront en tirer leurs propres conclusions…

PS : Qu’il me soit d’ailleurs permis de remercier ici le travail respectivement politique et médiatique de Martine Billard et Guillaume Champeau, qui n’ont pas ménagé leurs efforts pour nous alerter et tenter de faire évoluer la situation.

Pas de licence libre dans la propagande pro-majors à l’école

URL d’origine du document

Guillaume Champeau – 2 avril 2009 – Numerama
Article diffusé sous licence Creative Common by-nc-nd 2.0

Pouvait-on faire plus caricatural pour démontrer que la lutte contre le piratage n’a pas pour but d’aider les artistes, mais d’imposer un modèle économique au bénéfice des grandes maisons de disques ?

Le projet de loi Création et Internet prévoit de sanctionner par un diplôme au collège la connaissance des « risques liés aux usages des services de communication au public en ligne, sur les dangers du téléchargement et de la mise à disposition illicites d’œuvres culturelles pour la création artistique, ainsi que sur les sanctions encourues en cas de téléchargement illégal ». Pour préparer ce diplôme, la commission des affaires culturelles a proposé d’ajouter un amendement qui prévoit que les élèves reçoivent une « information sur les dangers du téléchargement et de la mise à disposition illicites d’œuvres culturelles pour la création artistique ».

Dans le but d’équilibrer la proposition, la députée Verts Martine Billard a alors proposé jeudi de préciser que cette information doit être « neutre et pluraliste », et couvrir notamment « les avantages pour la création artistique du téléchargement et de la mise à disposition licites des contenus et œuvres sous licences ouvertes ou libres », c’est-à-dire en particulier des œuvres sous Creative Commons.

Mais malgré le soutien de Muriel Marland-Militello, l’amendement de Martine Billard a été rejeté par la majorité. « Ça n’est vraiment pas du niveau de la loi, ça n’est vraiment pas nécessaire, au mieux ça sera une directive du ministère », a expliqué le rapporteur Frank Riester, comme si la propagande sur le téléchargement « légal » ne pouvait pas lui aussi faire l’objet d’une simple directive ou avait davantage sa place dans la loi. « Même position », dira simplement Christine Albanel. Sans protestation des bancs socialistes.

Notes

[1] Crédit photo : ComputerHotline (Creative Commons By-Sa) – Mais qui donc inscrit le nom de « La Quadrature du Net » au tableau ?




Linux a évolué… et vous ?

Fazen - CC byBien qu’il soit désormais prêt à partir à la conquête de nos ordinateurs, les mythes (et préjugés) autour du GNU/Linux continuent d’avoir la vie dure.

C’est ce que nous raconte ici Bruce Byfield en passant en revue une dizaine de légendes urbaines qui demanderaient à être quelque peu réactualisées.

Et de se demander en conclusion, qui de GNU/Linux ou de l’utilisateur est le moins préparé à ce que cette rencontre ait bel et bien lieu[1].

9 mythes sur GNU/Linux

The GNU/Linux Desktop: Nine Myths

Bruce Byfield – 16 mars – Datamation
(Traduction Framalang : Olivier et Don Rico)

Mac OSX est-il prêt pour le bureau ? Personne ne se pose la question. L’adopter demande pourtant de s’adapter à de nouvelles habitudes, de nouveaux outils et à un nouveau bureau, mais peu importe. On dit qu’il est facile d’accès, et il est soutenu par une entreprise propriétaire, tout comme Windows.

Pour GNU/Linux, en revanche, c’est une autre histoire. Depuis des années, les éditorialistes et les blogueurs nous expliquent que GNU/Linux n’est pas prêt pour le grand public et malgré les progrès accomplis au cours de ces dix dernières années, les arguments n’ont pas beaucoup évolué. Ils sont même de plus en plus obsolètes, quand ils ne reflètent pas une profonde ignorance. En fait, j’ai souvent l’impression que tous ceux qui répandent ces poncifs à propos des insuffisances de GNU/Linux ne l’ont jamais essayé.

Les critères de facilité d’utilisation sont souvent subjectifs. Ce que sera un bogue au yeux de l’un sera une fonctionnalité aux yeux d’un autre : par exemple, devoir ouvrir une session d’administrateur pour installer un programme est un désagrément pour les utilisateurs les moins expérimentés, tandis que les connaisseurs y voient un gage de sécurité.

Ce qu’on reproche souvent à GNU/Linux, aussi, c’est de ne pas être pas exactement comme Windows. On passera sur le fait que, s’il n’existait aucune différence entre les deux, on n’aurait aucune raison de vouloir changer de système d’exploitation. Quant à ceux qui s’attendent à utiliser un nouveau programme ou un nouveau système d’exploitation sans période d’adaptation, ils sont sacrément gonflés. Aux yeux de certains critiques, le simple fait que GNU/Linux ne corresponde pas en tout point à ce qu’ils connaissent déjà suffit à le vouer aux gémonies.

Viennent ensuite les critiques à géométrie variable. Par exemple, certains déclarent que GNU/Linux ne sera jamais prêt pour le grand public tant qu’il n’offrira pas certaines fonctions, puis quand on leur montre qu’elles existent ou qu’elles sont en développement, ils changent de cible et insistent sur le caractère indispensable d’une autre fonction. On ne peut contrer ce genre d’argument, car les critères qui les sous-tendent ne sont jamais les mêmes.

Enfin, pour compléter le tableau, on trouve les arguments qui se contredisent eux-mêmes car ils sont faux, incomplets, ou déformant la réalité. Voici neufs des contre-vérités les plus répandues.

1. Les trop nombreuses distributions compliquent la tâche des développeurs

Voilà une affirmation populaire chez les concepteurs de logiciels pour expliquer pourquoi ils ne proposent pas de version de leur produit pour GNU/Linux. Ils affirment en effet que toutes les distributions n’ont pas la rigueur du Linux Standards Base et qu’elles utilisent une hiérarchisation différente. Les distributions, qui plus est, utilisent toutes sortes de paquets, ce qui signifie qu’un support universel implique la création de paquets dans différents formats.

Ces problèmes existent bel et bien, mais cette affirmation exagère les problèmes qui en découlent. Des installeurs universels comme InstallBuilder et Install Anywhere proposent aux concepteurs des installations similaires à ceux de Windows. En ce qui concerne la création de différents paquets, si ça ne pose pas de problème à des projets communautaires, pourquoi est-ce que ça devrait en poser à une entreprise spécialisée ?

Mais au fond, le plus grave problème posé par cet argument, c’est qu’il tente d’imposer un point de vue « à la Windows » à un système existant. Dans GNU/Linux, les créateurs d’applications ne prennent pas en charge les différentes distributions ou formats de paquets, c’est la distribution qui s’en charge.

Si ça fonctionne, c’est parce qu’avec les logiciels libres la distribution peut apporter les changements nécessaires au bon fonctionnement du logiciel. Ça ne pose problème qu’aux concepteurs de logiciels propriétaires. S’ils ne souhaitent pas se conformer au système et libérer leur code c’est leur choix, mais alors qu’ils ne se plaignent pas que le système n’est pas adapté.

2. Aucun outil de migration n’est disponible

Effectivement, ça ne ferait pas de mal à GNU/Linux s’il existait un assistant pour importer depuis Windows les e-mails, les marques pages dans le navigateur, les canaux IRC et autres informations personnelles. Mais on peut faire le même reproche à Windows. Au moins GNU/Linux co-existe avec les autres systèmes d’exploitation et peut lire leurs formatages spécifiques, aussi peut-on importer manuellement certaines de ces informations.

3. Le matériel n’est pas reconnu

Par le passé, le support matériel sur GNU/Linux laissait à désirer. Et dans la plupart des cas, on devait la reconnaissance du matériel aux efforts de la communauté, et non aux fabricants, mais cela restait insuffisant.

Au cours de ces trois ou quatre dernières années, cependant, les pilotes mis au point par la communauté se sont améliorés et les fabricants proposant des pilotes pour GNU/Linux, et plus seulement pour Windows et Mac, sont plus nombreux. Les pilotes des fabricants ne sont pas toujours libres, mais ils sont gratuits.

Aujourd’hui, les incompatibilités pour le matériel commun comme les disques durs, les claviers ou les cartes ethernet, si elles ne sont pas encore éradiquées, restent rares. Les secteurs qui posent plus problème sont ceux des périphériques comme les scanners, les imprimantes, les modems ou les cartes réseau sans fil. On peut néanmoins se couvrir en adoptant de bonnes pratiques comme acheter une imprimante postscript, qui fonctionnera forcément avec le pilote postscript générique, ou en achetant des produits Hewlett-Packard, qui prend en charge l’impression sous GNU/Linux depuis très longtemps.

Certains vont même jusqu’à dire que GNU/Linux, qui conserve en général une compatibilité descendante, reconnait en fait plus de matériel que Windows. Je n’irai pas jusque là, mais, globalement, les problèmes de pilotes sous GNU/Linux semblent être à peine plus fréquents que ceux que j’ai pu rencontrer avec différentes versions de Windows.

De nos jours, on peut même s’affranchir complètement du problème de la reconnaissance du matériel en achetant des ordinateurs neufs préinstallés avec GNU/Linux par des entreprises comme Acer ou Dell.

4. La ligne de commande est indispensable

Cette affirmation est à la fois un souvenir du passé, à l’époque où la ligne de commande sur GNU/Linux était presque indispensable, et des réticences bien compréhensibles des utilisateurs de Windows à utiliser la ligne de commande DOS. C’est pourtant tout à fait faux.

Le bureau sur GNU/Linux est largement opérationnel depuis plus de dix ans. De nos jours, les dernières versions de l’environnement GNOME n’ont pas à rougir de la comparaison avec Windows et, dans ses dernières versions, KDE est l’un des environnement les plus novateurs. Même les outils d’administration sont bien présents sur le bureau.

On peut certes utiliser la ligne de commande, et nombreux sont les utilisateurs qui préfèrent y recourir, surtout les administrateurs, car c’est souvent le plus efficace. Mais pour l’administration ou le travail quotidiens, l’utilisation des lignes de commande relève des préférences personnelles, pas d’une obligation. Elles sont aussi bien plus simples d’utilisation que les lignes de commandes du DOS.

5. Il n’y a pas de logiciel

Il faut en général comprendre par là qu’on ne retrouve pas les logiciels habituels de Windows : pas de MS Office, d’Internet Explorer ou de Photoshop. Mais une simple recherche succincte permet de découvrir des logiciels équivalents qui correspondent plus ou moins, à condition de prendre le temps de s’y adapter.

Neuf fois sur dix, lorsque l’on étudie d’un peu plus près quelqu’un qui critique l’un de ces équivalents (The GIMP par exemple) ou affirme qu’il n’est pas prêt pour un usage professionnel, on se rend compte que cette personne n’a pas exploré le programme ou a été désarçonné par le changement de nom ou d’emplacement dans les menus d’une fonction. Souvent, celui qui se plaint n’a même jamais essayé, ou essayé récemment, le programme qu’il critique.

Pour un usage bureautique ou en productivité, GNU/Linux offre de nos jours une solution complète. Beaucoup de projets de logiciels libres fonctionnant sur différentes plateformes, il se peut même que vous ayez déjà utilisé ces applications sous Windows, comme Firefox ou OpenOffice.org. Il reste du chemin à parcourir, par exemple dans les jeux ou dans les applications spécialisées comme la reconnaissance optique de caractères (ROC). Le problème, ce n’est pas que les alternatives n’existent pas, mais plutôt qu’elles se développent trop lentement.

6. L’apparence des logiciels laisse à désirer

Il y a encore quelques années, sur GNU/Linux, la fonctionnalité primait sur l’ergonomie. Mais puisque les fonctionnalités de bases n’étaient pas toutes présentes, il pouvait difficilement en être autrement.

Mais tous les logiciels les plus couramment employés ont mûri et s’attaquent désormais à l’ergonomie. Une modernisation de l’interface ne ferait pas de mal à certains, mais la plupart ne sont pas pire que leurs équivalents sous Windows – honnêtement, si quelqu’un peut supporter une plateforme où Outlook et Windows Media Player sont jugés acceptables, il ne peut vraiment pas se plaindre de l’apparence des logiciels sur une autre plateforme.

7. Le service est inexistant

C’est à l’ère d’Internet que GNU/Linux a vraiment commencé à sortir des cercles d’initiés. À l’époque, le manque de service posait problème – si l’on parle de contrats de services traditionnels en tout cas. Mais, même il y a dix ans, il était déjà possible de signer un contrat de service avec une entreprise comme Red Hat.

De nos jours, le choix de l’assistance traditionnelle est bien supérieur. Si vous ne souhaitez pas faire appel à un fabricant de logiciel qui propose une distribution, vous trouverez sans doute un fournisseur de service proche de chez vous dans n’importe quelle grande ville d’Europe ou des États-Unis.

Mais il existe depuis toujours une meilleure source d’information : les listes de diffusion des projets communautaires ou d’entreprises. Même si ces listes offrent une assistance différente, elles ne sont néanmoins pas inférieures. Non seulement elles sont gratuites, mais ceux qui les fréquentent sont souvent plus prompts à répondre et vous fourniront une assistance plus détaillée que n’importe quel service payant auquel j’ai eu affaire.

8. Les options sont trop nombreuses

Comparé à Windows, GNU/Linux est un système d’exploitation qui offre bien plus de choix. Comme aucune entreprise ne le conçoit, il est plus libre dans sa réalisation. Comme ses développeurs pensent beaucoup en individualiste, ils offrent aux utilisateurs les moyens de faire les choses à leur façon.

Par conséquent, contrairement à Windows, GNU/Linux existe en plusieurs distributions, propose plus d’un environnement de bureau, quasi rien n’est unique. C’est ce que ses utilisateurs préfèrent.

Je vous accorde que les options, sans parler de leur nom ou des acronymes, peuvent dérouter les nouveaux venus. La confusion, cependant, découle surtout du contraste avec Windows. Pour l’utilisateur, au fond, les différences entre les distributions les plus populaires ne sont pas si énormes.

Une petite recherche vous permettra de faire le choix le plus adapté, et dans tous les cas l’installation se fait simplement, avec une intervention minimale de votre part, assistée qui plus est. Une fois la distribution installée, libre à vous de profiter de toutes les options pour vraiment personnaliser votre bureau ou de vous satisfaire des réglages par défaut et de ne modifier que le fond d’écran.

En d’autres termes, les options sont destinées aux utilisateurs avancés. Les débutants peuvent très bien les ignorer.

9. L’installation des logiciels est trop compliquée

Ce mythe se présente sous deux formes. Dans la première, celui qui se plaint parle de compilation à partir du code source (je ne vois pas où est la difficulté de décompresser une archive et de suivre les instructions pour taper les commandes configure, make et make install, mais admettons que l’inconnu puisse en effrayer certains). Dans la deuxième, les gens se plaignent de ne pas pouvoir normalement se rendre sur le site du fabricant de matériel ou de logiciel pour télécharger un binaire à exécuter pour l’installer, comme on le fait sous Windows.

Ceux qui expriment ces griefs n’ont pas compris que GNU/Linux fonctionne différemment. Chaque distribution entretient ses propres dépôts de logiciels, tous prêts à l’emploi pour une distribution précise. Sauf besoin particulier, tous les logiciels dont qu’il vous faut se trouvent dans ces dépôts, et il ne vous reste plus qu’à utiliser l’installateur graphique ou son équivalent en ligne de commande.

Si vous vous en tenez aux dépôts de votre distribution, l’installation de logiciels sous GNU/Linux est en fait largement plus simple que sous Windows. Vous n’avez pas besoin d’aller au magasin, tous les logiciels sont disponibles en ligne. Vous n’avez pas besoin de payer, de vous enregistrer ni de les activer.

S’il vous faut soudain un nouveau logiciel pour une tâche précise, vous pouvez l’identifier et l’installer en quelques minutes. Si vous voulez tester plusieurs alternatives, libre à vous. Pour bénéficier de ce confort, il suffit de prendre le temps de comprendre le fonctionnement du système d’exploitation plutôt que de partir bille en tête en vous appuyant sur des « on-dit » ou sur vos connaissances antérieures.

GNU/Linux et le bureau : les vraies raisons ?

De tels arguments en disent plus long sur leurs auteurs que sur GNU/Linux. Au pire, ce sont des signes d’ignorance des dernières avancées de GNU/Linux, au mieux, c’est un ensemble de préjugés ou d’habitudes.

Mais alors, concrètement, pour quelles raisons GNU/Linux n’est-il pas plus populaire ? L’argument classique du monopole est certainement la première raison. Puisque Windows est pré-installé sur la plupart des ordinateurs et que vous devez faire l’effort de chercher pour trouver des ordinateurs avec GNU/Linux pré-installé, le problème semble assez évident.

Mais la résurrection d’Apple au cours de ces cinq dernières années laisse à penser qu’un monopole n’est pas inattaquable. La raison est peut-être plus simple encore. Malgré leurs plaintes, les gens sont habitués à Windows et ne savent même pas que GNU/Linux ou d’autres alternatives existent. Ils ne l’ont jamais testé pour de bon et se reposent sur des on-dit ou sur l’avis du copain d’un copain d’un ami qu’il leur est impossible d’évaluer.

Les prétextes qu’ils avancent montrent très clairement qu’ils ne connaissent pas GNU/Linux. Ils ont beau dire que GNU/Linux n’est pas prêt pour eux, l’inexactitude de leurs arguments laisse plutôt à penser qu’en fait, ce sont eux qui ne sont pas prêts pour GNU/Linux.

Notes

[1] Crédit photo : Fazen (Creative Commons By)




Google attendra pour attirer nos enfants dans sa Toile

Kit Pédagogique - Extrait - Google - ChercheNet« On souhaite que les élèves soient initiés à Internet le plus tôt possible pour apprendre la maîtrise de ses risques et de ses dérives (…) Ce travail de sensibilisation est absolument indispensable. »

C’est, d’après l’AFP, ce qu’a déclaré le ministre Xavier Darcos, le 24 mars dernier, en visite au collège Françoise-Giroud de Vincennes lors du lancement officiel du jeu « ChercheNet », destiné aux collégiens français.

Et si les « risques » et les « dérives » se cachaient jusqu’à l’intérieur même de cette initiative censée « apprendre à les maitriser » ?

C’est la question que pose ce billet d’un blog qui critique assez souvent la forte influence de Microsoft à l’Éducation Nationale pour ne pas s’émouvoir ce qui vient de se produire ici avec l’un de ses principaux concurrents, à savoir Google.

Une louable intention

Voici comment le jeu « ChercheNet » est présenté sur le site du ministère :

Afin d’aider les élèves à maîtriser Internet et les outils de communication numérique en toute sécurité, le ministère de l’Éducation nationale soutient le jeu « ChercheNet » initié par Google et mis en œuvre par Calysto, spécialiste de la pédagogie Internet en milieu scolaire. « ChercheNet » est un concours pédagogique proposé aux collégiens de sixième et de cinquième dont le terrain de jeu est l’internet. Tout en résolvant des énigmes autour du thème de l’écologie et du développement durable, les collégiens apprendront les bons usages des outils du web 2.0.

Retenons déjà, la nuance a son importance, que c’est le ministère qui « soutient ce jeu initié par Google » et non l’inverse.

Toujours est-il que l’intention est louable, surtout si l’on s’en réfère au communiqué de presse commun à Google et Calysto :

La recherche d’information et la communication avec les réseaux sociaux sont les deux usages les plus répandus sur Internet. Le développement du « web 2.0 » a permis aux internautes, y compris les plus jeunes, de devenir eux-mêmes des créateurs de contenu. L’usage d’Internet est aujourd’hui généralisé à tous les publics, ce qui implique que nous soyons mieux formés à ses usages.
C’est dans ce but précis que le jeu pédagogique ChercheNet a été conçu : développer par le jeu une vigilance collective (professeurs, parents, élèves) sur tous les usages d’internet pour un développement durable d’Internet.

Le jeu fonctionne sur le principe d’un jeu-concours. Les élèves devront répondre à une série d’énigmes sur le développement durable (biodiversité, eau, énergie, déchets, etc.)

Les différentes étapes du jeu amènent les élèves à développer un comportement « web-citoyen » pour rédiger un blog collectif :
— Préparer un travail, une recherche sur Internet, en respectant les droits de propriété intellectuelle
— Rechercher efficacement en vérifiant les sources d’information
— Apprendre à protéger sa vie privée et celle des autres sur les réseaux sociaux ou les blogs
— Apprendre à s’appliquer, à rédiger, « même sur Internet » et mettre de côté le « langage SMS »

Difficile de ne pas agréer à la démarche. On notera que l’on entrechoque le développement durable en tant que tel avec un « développement durable d’Internet » qui reste à définir.

Sur le jeu proprement dit, je n’ai aucune information à vous apporter puisqu’il faut s’inscrire et que les premières énigmes arriveront courant avril. Il en va autrement pour le « Kit pédagogique » accompagnant ce jeu, mis initialement à disposition sur le site de l’opération par Calysto et… retiré aussitôt après dans la foulée !

Un très éphémère « Kit pédagogique » !

ChercheNet - Copie d'écranPas plus tard qu’il y a deux jours, lorsque vous vous rendiez sur le page « Pour vous aider » du site « Cherchenet », vous aviez la possibilité de télécharger un « Kit pédagogique » ainsi défini (voir la copie d’écran que nous avons conservé en cliquant sur l’image ci-contre) : « Véritable mode d’emploi des outils du numérique, vos élèves en auront besoin pour résoudre les énigmes en respectant les règles et usages liés à l’Internet. »

Aujourd’hui sur la même page, il n’y a plus rien à télécharger directement. Le « Kit pédagogique » a fait place à un « Kit pratique d’outils numériques » et sa formulation est elle aussi sensiblement différente : « Véritable mode d’emploi d’outils du numérique (recherche, géolocalisation,…), vous pourrez l’utiliser afin que vos élèves apprennent quelques astuces pour mieux se servir d’outils du web et pour mieux respecter les règles et usages liés à l’Internet. Le kit pratique est disponible et vous sera envoyé par courriel par simple demande adressée à… »

Il n’est plus question de mise à disposition d’un Kit qui a perdu son qualificatif « pédagogique ». Les élèves n’en ont d’ailleurs plus « besoin », tout au plus son remplaçant pourra leur faire apprendre « quelques astuces »… Une posture plus modeste est soudainement adoptée.

Mais que contenait donc ce « Kit pédagogique » pour mériter une si courte apparition publique ?

« Kit pédagogique » ou « Google everywhere » ?

Kit Pédagogique - Sommaire - Google - ChercheNetNous avons juste eu le temps de conserver une copie du fameux document. Et nous vous invitons à en parcourir sa dizaine de pages pour… tout de suite comprendre où le bât blesse !

Le sommaire nous avait prévenu (image ci-contre cliquable), mais moteur de recherche (simple ou avancé), moteur d’images, Google Maps, Google Earth, Picasa, Google Traduction, Google Document, Google Agenda, Blogger… n’en jetez plus. C’est pas compliqué, il n’y en a que pour Google dont quasiment toute la panoplie est passée en revue !

À la trappe les réseaux sociaux web 2.0 de type Facebook, les blogs a la sauce Skyblog, les outils de travail en ligne comme tels ceux de Windows Live, sans oublier ce drôle de site souvent utile en situation de recherche qu’est Wikipédia. Et pour l’anecdote, toutes les copies d’écran ont été réalisées sous Mac OS X.

Il y a bien sûr de pertinents et bienvenus conseils qui parsèment le Kit (avec mention, page 7, des licences Creative Commons et Art Libre) mais impossible de se décoller de l’impression générale tenace d’avoir à faire à une sorte de publi-information de Google.

Et mis à part le moteur de recherche, que faut-il faire pour bénéficier de tous ces merveilleux services ? Je vous le donne en mille, il faut posséder un compte Google, ce qui est bien spécifié en page 8 du kit :

Google ce n’est pas seulement un moteur de recherche, tu peux accéder aussi à pleins de services gratuits : tu peux localiser un lieu sur une carte, retoucher des photos, envoyer des mails, gérer ton emploi du temps… Si tu veux utiliser ces outils, c’est gratuit, simple et rapide ! Un seul compte te permettra d’accéder à tous les outils Google. Tu dois remplir le formulaire en suivant les instructions et cliquer sur le bouton « j’accepte créer un compte ».

Un mail te sera envoyé à l’adresse spécifiée lors de la création de ton compte. Pour valider ton inscription, tu devras cliquer sur le lien présent dans ce mail.

Rappelons-nous le libellé initial du Kit sur le site ChercheNet : « Véritable mode d’emploi des outils du numérique, vos élèves en auront besoin pour résoudre les énigmes en respectant les règles et usages liés à l’Internet. » Je me demande si il n’aurait pas été plus sincère de dire « Véritable mode d’emploi des outils Google, vos élèves auront besoin d’un compte Google pour résoudre les énigmes en respectant les règles et usages liés à l’Internet. ». C’eut été plus sincère mais plus problématique et surtout moins… pédagogique !

Et le problème c’est que l’emprise de Google sur le réseau est telle que l’entreprise est parfois surnommée le « Big Brother d’Internet », en référence au fait qu’elle possède de très nombreuses informations personnelles sur nos comportements numériques, informations décuplées à partir du moment où vous prenez un compte chez eux justement.

Du coup il y a un léger paradoxe à vouloir sensibiliser nos jeunes à « développer une vigilance collective » et « apprendre à protéger sa vie privée » (via un jeu « web-citoyen » soutenu par le ministère), tout en incitant plus que fortement à se créer un compte chez Google !

Google s’en défend ainsi dans les colonnes du Monde : « C’est le constat d’une réalité : nos outils sont les plus utilisés. Nous prenons nos responsabilités pour que leur usage soit sans risque et responsable. Si nous ne faisions rien à ce propos, on nous critiquerait. » Ce n’est pas autrement que s’exprimerait un Thierry de Vulpillières pour justifier de l‘activisme de Microsoft à l’école.

Et pour ce qui concerne Calysto, dans les mêmes colonnes : « Les outils sont libres, Google n’est qu’un simple sponsor. » Ben dites-moi… curieux de savoir ce que cela aurait bien pu donner si Google avait été plus qu’un « simple sponsor » ! On dirait le Café Pédagogique nous expliquant d’aplomb que Microsoft n’est qu’un simple sponsor de leur Forum des enseignants innovants.

Quant aux outils qui seraient « libres », c’est justement l’objet du prochain paragraphe.

Et le logiciel libre dans tout ça ?

Kit Pédagogique - Picasa - Google - ChercheNetJe ne sais pas très bien ce que Calysto entend par « outils libres » mais je n’ai pas été tout à fait honnête lorsque j’ai pu dire plus haut qu’il n’y en avait que pour Google.

En effet, on trouve trace du logiciel libre dans le « Kit pédagogique ». Mais réelle volonté de le promouvoir au sein de l’Éducation Nationale ou alibi pratique pour faire passer la pilule ? Les deux mon Capitaine. Un peu comme, chose curieuse, la politique globale et générale de Google vis-à-vis de « l’Open Source »…

Les premières (et sibyllines) références arrivent page 12/13 et 18/19. La page 12/13 est complètement dédiée au logiciel de retouche d’image Picasa. Mais tout en bas, on peut lire (avec la loupe qui nous accompagne dans tout le Kit) la chose suivante : « Logiciels libres : Gimb, Artweaver ». Et… c’est tout ! Aucune explication, aucun lien cliquable, bref cela arrive comme un cheveu sur la soupe. Et puis, pour votre gouverne, on ne dit pas « Gimb » mais GIMP, tandis que Artweaver est sûrement un bon logiciel mais il n’est tout simplement pas libre.

Kit Pédagogique - Logiciel Libre - Google - ChercheNetRebelote en page 18/19 entièrement consacrée au moteur de blog Blogger, avec un « Logiciels libres : Dot clear, WordPress… ». C’est mieux cette fois-ci mais on n’arrive toujours pas à atteindre la perfection puisqu’on écrit Dotclear et non « Dot clear » 😉

Dans le même style minimaliste, on aurait pu s’attendre à ce que la suite bureautique libre OpenOffice.org soit évoquée en bas de l’article sur Google Document (page 15/16). Une autre fois sans doute.

Mais il y a surtout la totalité de la page 20 titrée « Qu’est-ce qu’un logiciel libre ? ». Il s’agit certes de la dernière page du Kit mais il y a de quoi se réjouir a priori. Sauf que la teneur de l’exposé m’a laissé parfois un peu perplexe, quand bien même nous connaissons tous la difficulté à vulgariser la notion de logiciel libre.

Pour comprendre ce qu’est un logiciel libre, il te faut avant tout connaître la signification du terme logiciel ; il s’agit d’un ensemble de programmes qui permet d’effectuer une tache particulière (par exemple le traitement de texte, la retouche de photo, …). Les logiciels sont soumis à des licences d’utilisation, qu’il faut très souvent acheter.

L’expression « logiciel libre », traduite de l’anglais free software, fait référence à la « liberté d’expression » et non pas au prix. C’est pourquoi ils sont souvent téléchargeables gratuitement sur l’Internet et peuvent être copiés légalement par tous.
Le logiciel libre s’oppose au logiciel dit propriétaire, qui ne fournit pas les éléments pour le modiier et ne permet pas de le partager. En revanche, le logiciel libre garantit un certain nombre de libertés à ses utilisateurs : la liberté de l’utiliser pour quelque usage que ce soit, celle d’en redistribuer des copies et enfin la liberté de le modifier et de rendre publiques les modifications.

Soit. C’est un peu emberlificoté tout ça (et c’est plutôt dommage de passer sous silence l’aspect mouvement social du logiciel libre, cher à Richard Stallman) mais ça se termine plutôt bien. Quant à la suite, attention, c’est un beau nid de trolls :

Quels sont les autres avantages d’un logiciel libre ?

Il est plus fiable car moins vulnérable aux virus et aux failles de sécurité. En effet, comme beaucoup de monde a accès à ce type de logiciel, les erreurs sont corrigées plus vite ! De plus ils produisent des fichiers dans des formats dits ouverts, utilisables plus longtemps qu’avec des formats fermés, et sont moins gourmands en énergie et en ressources pour ton ordinateur que leurs équivalents propriétaires.

Je suis bien entendu plutôt d’accord mais comme dirait Wikipédia : « référence demandées ». C’est un peu brutal et péremptoire de présenter les choses ainsi. Les défenseurs du logiciel propriétaire apprécieront !

Et puis, si ces logiciels libres ont tant de vertus, pourquoi Google ne s’est-il pas donné la peine de « libérer » Picasa et Blogger au moment de leur rachat ?

On notera que ce texte porte en quelque sorte la « caution » de Frédéric Couchet de l’April puisqu’on le remercie personnellement en bas de page (je l’attends dans les commentaires !). On notera enfin que Framasoft est également cité, avec là encore une URL explicite mais non cliquable.

Où les trouver ?

Tu peux télécharger de nombreux logiciels libres sur www.framasoft.net, un des annuaires les plus complets de logiciels compatibles avec les PC. Mais tu peux aussi les acheter dans certains grands magasins !

Vous nous voyez fiers et honorés, mais j’ai un peu de mal à m’imaginer un élève de sixième cinquième se rendre sur Framasoft à la suite de la lecture de ce Kit. Tout comme j’ai du mal à m’imaginer ce que l’élève et son professeur pourront bien retenir du logiciel libre au sortir du Kit.

Et plus généralement j’ai un peu de mal à faire la corrélation directe entre le contenu du Kit et sa présentation (que je rappelle une dernière fois) : « Véritable mode d’emploi des outils du numérique, vos élèves en auront besoin pour résoudre les énigmes en respectant les règles et usages liés à l’Internet. »

Quelles que soient les qualités des services de la société américaine (j’en consomme abondamment), c’est bien plus d’un « Kit Google » que d’un « Kit pédagogique » dont il s’agit ici.

Voilà une étonnante maladresse de la part d’un Calysto (qui se targue d’être un « spécialiste de la pédagogie Internet en milieu scolaire ») mais surtout d’un Google qui nous avait habitué à un marketing moins trivial. Ont-ils vraiment pensé que ce Kit allait tranquillement passer comme une lettre à la poste ? Bien que ce ne fut heureusement pas le cas ici, cela en dit long sur l’état actuel de notre passivité vis-à-vis de la marchandisation de l’école.

Un ministère embarrassé (mais réactif)

On comprendra alors fort bien que lorsque le ministère s’est penché sur ce Kit (aidé en cela par les premiers articles parus dans la presse comme celui du Monde) il ait vraisemblablement un peu « tiqué », quand bien même au départ il affirmait serein que « s’il était obligatoire d’utiliser Google, il n’aurait pas autorisé l’opération » (même source). Soutien à un projet pour « apprendre à maîtriser Internet et les outils du numérique », oui. Soutien aux services Google aboutissant à la création de comptes Google en masse chez les 11/12 ans, non. D’autant plus que Xavier Darcos en personne s’est déplacé pour inaugurer le projet !

Premier petit aparté.
Il faut dire aussi que si le ministère avait été réellement capable de nous offrir des ENT cohérents et mutualisés dignes de ce nom, les élèves auraient certainement moins « besoin » d’utiliser les services Google (à commencer par le très riche Google Apps Education).
Fin du premier petit aparté.

Second petit aparté.
Et si le ministère faisait confiance aux enseignants pour produire ce genre de supports plutôt que confier cela à une société commerciale « spécialiste de la pédagogie Internet en milieu scolaire » ? On mesure ici le haut degré de confiance accordé à son personnel dont c’est pourtant le métier !
Fin du second petit aparté.

Toujours est-il que Calysto et Google France ont dû se faire gentiment tirer les oreilles, avec pour conséquence la réactualisation de notre article du Monde :

Le mardi 23 mars, le ministère de l’Éducation a demandé à son partenaire de retirer le kit pédagogique du jeu ChercheNet. Le ministère a expliqué "ne pas souhaiter que Google soit aussi fortement mis en avant sur ce document destiné aux professeurs et aux élèves". Un nouveau livret sera mis en ligne prochainement.

Prière de revoir sa copie donc, ce qui apparaît être une sage décision.

Nous attendons avec impatience la deuxième version revue et corrigée, et Framasoft se tient à l’entière disposition de Calysto et Google France si jamais ils souhaitent nous impliquer dans cette nouvelle mouture (pourquoi pas, après tout, puisque nous y sommes nous aussi dans ce premier Kit).

Money, money, money !

Sage décision donc, mais qui ne doit pas occulter le rôle et la responsabilité du ministère dans toute cette petite affaire (source ReadWriteWeb) :

Éduquer au plus vite au « réflexe » Google, c’est pouvoir être sûr de garder 70% de part de marché mondiales et donc continuer à faire tourner à fond la machine AdWords et AdSense. Tout cela parait de bonne guerre, mais pose question quand à la présente aussi forte d’une marque dans un programme pédagogique soutenu par l’Éducation Nationale.

Et surtout, interroge quant à la capacité de cette dernière à fournir des programmes sensibilisant aux nouvelles technologies en adéquation avec les besoins et savoirs des élèves. La vénérable institution serait-elle aussi dépassée sur ce point, quitte à devoir se raccrocher officiellement à une initiative extérieure ?

Un ministère qu’on aimerait voir faire preuve de la même promptitude vis-à-vis de l’entrisme de Microsoft à l’école (abondamment développé sur ce blog). Parce que c’est exactement la même logique qui opère lorsque sous couvert « d’accompagner l’initiation de vos élèves ou de vos enfants au B2i », on propose, sur un site du service public, des vidéos qui sont à la limite de la publicité déguisée pour la suite bureautique MS Office de Microsoft.

Hier Microsoft, aujourd’hui Google avec ce vrai faux « Kit pédagogique »… nous n’avons décidément pas fini de relater les relations complexes entre l’école et ces multinationales qui ne souhaitent que le bien de nos enfants (quand bien même il y ait étrangement à chaque fois des effets collatéraux bénéficiant au généreux sponsor).

Quant au logiciel libre, il n’est que trop rarement convié à la fête. Il faut dire que tant que l’époque privilégiera les fêtes privées et payantes, et ce jusqu’à l’intérieur même du sanctuaire scolaire, la situation n’aura guère de chance d’évoluer…