Claude Bernard Lyon 1 offre les premières bourses Microsoft à ses étudiants

Stuartpilbrow - CC by-saL’université française ne doit plus pleurer sur le désengagement de l’État, le sauveur et bienfaiteur Microsoft est là pour y remédier.

Hier c’était Paris Descartes qui décidait de confier la communication numérique de ses étudiants à la firme de Redmond. Et aujourd’hui, fait unique dans les annales, ont vu le jour les premières bourses d’étudiants financées pour le privé.

C’est à l’Université Claude Bernard Lyon 1 que l’on doit cet acte pionnier et, vous l’aurez compris, c’est encore de Microsoft qu’il s’agit.

Extrait du communiqué de presse :

Alors qu’en novembre 2007, l’Université Claude Bernard Lyon 1 s’était engagée avec Microsoft France sur une série d’actions visant à rapprocher les deux structures en termes de partenariat économique, après plusieurs années de projets communs – l’Université et Microsoft France concrétisent aujourd’hui l’un de ses axes de partenariat qui était de contribuer financièrement au soutien d’étudiants boursiers, par le biais de la Fondation partenariale Lyon 1.

Cinq bourses sont accordées pour la rentrée universitaire 2009 à des étudiants débutants leurs études en première année de licence (…) La bourse d’un montant de 3 000 €, versée en une fois, doit permettre à des étudiants méritants d’entamer des études scientifiques dans de bonnes conditions financières.

(…) Ils recevront lundi 19 octobre 2009 à 14h30 dans la salle du conseil de l’Université leur bourse des mains d’Eric Le Marois, Directeur Education et Recherche de Microsoft France et de Lionel Collet, président de l’Université Lyon 1.

À l’issue de cette remise de bourse, Lionel Collet et Eric le Marois se prêteront au jeu des questions-réponses sur les thématiques des nouvelles technologies auprès de jeunes étudiants de l’Université.

Inclinons-nous et disons merci à la généreuse société américaine pour le soutien ainsi apporté au fleuron de notre jeunesse[1].

Quand on pense au coût annuel que représente la somme totale de toutes les licences Windows et MS Office de tous les postes de tous les établissements scolaires de France et de Navarre, on se dit que ces 5 bourses de 3 000 € ne méritent pas forcément une vaste opération de communication.

Il faut être naïf, malintentionné ou bien carrément parano pour n’y voir avant tout qu’une belle arnaque consistant à déshabiller l’élève Pierre pour habiller l’étudiant Paul sous l’œil bienveillant d’une puissance publique de moins en moins puissante et de moins en moins publique.

Notes

[1] Crédit photo : Stuartpilbrow (Creative Commons By-Sa)




Appel de soutien de la FSF à l’occasion des 25 ans du projet GNU

Appenz - CC byDans un récent entretien que nous avions traduit, Richard Stallman évoquait le fait d’être parfois marginalisé au sein d’une communauté qu’il a lui même contribué à construire.

Son regret ne concerne bien entendu pas l’efficience, la qualité et les succès toujours plus nombreux que remportent le logiciel libre. Mais celui de constater que certains en chemin minimisent voire écartent le mouvement social et éthique qui sous-tend à ses yeux le logiciel libre.

C’est l’historique et classique opposition entre « open source » et « free software ». Et il serait dommage que le premier phagocyte le second sous prétexte qu’il est bien plus politiquement correct.

Voici très grossièrement synthétisé pourquoi nous soutenons la Free Software Foundation, et ne manquons pas de traduire et relayer bon nombre de ses appels et communiqués[1].

25 ans de GNU – Soutenons la liberté du logiciel

25 years of GNU – support software freedom!

Peter Brown – 29 septembre 2009 – FSF.org
(Traduction Framalang : Quentin et Goofy)

Chers supporters du logiciel libre,

Demain s’achèvera une année de célébrations du 25ème anniversaire du projet GNU. Une célébration démarrée en trombe en septembre 2008 avec l’excellente vidéo de l’auteur et comédien Stephen Fry.

Aujourd’hui, nous célébrons le fait que nous avons passé le cap des 25 000 personnes inscrites à notre newsletter mensuelle, la Free Software Supporter, et nous remercions les 3 200 personnes qui ont rejoint la Free Software Foundation comme membres associés pour financer notre travail. Vous pouvez rejoindre leur rang tout de suite et arborer fièrement votre carte de membre en :

Je suis fier que la FSF ait autant d’activistes et de membres dévoués, qui chaque jour proclament leur soutien à notre cause et plaident pour une société libre.

Le mouvement du logiciel libre a passé une excellente année, et son importance sur le plan éthique est de plus en plus reconnue. Ensemble, nous combattons le fléau du logiciel propriétaire, des brevets logiciels, des DRM, et de l’informatique pleine de chausse-trappes, dans un effort pour construire un monde de logiciels libres où nous, les utilisateurs, nous serons libres.

« J’aurais pu gagner de l’argent (en rejoignant le monde des logiciels propriétaires), et peut-être pris du bon temps à écrire du code. Mais je savais qu’à la fin de ma carrière, j’aurais fait le bilan de ces années passées à ériger des murs entre les individus, et j’aurais eu le sentiment d’avoir gâché ma vie en rendant le monde pire qu’il n’aurait pu l’être. »

Richard Stallman, projet GNU.

Aidez-nous à finir en beauté cette année faste pour le GNU en devenant membre ou en effectuant un don, et merci pour votre soutien sans faille !

Notes

[1] Crédit photo : Appenz (Creative Commons By)




LinuxÉdu, le groupe qui fait bouger le Libre éducatif de Toulouse et sa région

Logo LinuxEdu - ToulouseMon petit doigt me dit que cette année le Framablog va moins se lamenter sur la situation du Libre dans l’éducation nationale française que par le passé.

D’abord parce même au sein du ministère, les mentalités évoluent. Mais aussi parce que nous souhaitons être plus constructifs en mettant l’accent sur les nombreuses et positives actions de terrain (sachant que ces dernières ne bénéficient pas forcément de la même attention médiatique qu’un projet comme l’Académie en ligne par exemple).

Ici, on ne se lamente pas mais on agit. Et ces actions sont autant de petits ruisseaux qui convergent lentement mais sûrement vers une grande rivière, rivère qui finira bien par passer un jour sous les fenêtres du ministère !

Et justement, cela tombe bien, parce qu’avec le dynamique projet LinuxÉdu de Toulouse et sa région, on tient une action des plus intéressantes qui ne demande qu’à « faire jurisprudence ».

Il est en effet rare, voire unique, d’afficher ainsi officiellement (sur un site académique) sa volonté de promouvoir le logiciel libre à l’école, de réussir à pénétrer le monde a priori fermé de la formation continue pour proposer des stages aux titres plus qu’explicites (exemple : « Linux et les logiciels libres pour l’éducation »), et d’organiser d’originales rencontres publiques (comme les rendez-vous « BarCamp TICE libres » qui débutent le 7 octobre prochain) en collaboration étroite avec Toulibre, le GULL du coin (il y a même un cinéma local impliqué, la totale quoi !).

Nous nous devions d’en savoir plus, en partant à la rencontre de l’un des ses principaux acteurs.

PS : Si d’autres académies veulent se manifester dans les commentaires pour évoquer leurs propres initiatives en faveur du Libre à l’école, qu’elles n’hésitent surtout pas.

Entretien avec Rémi Boulle

Rémi Boulle, bonjour, une petite présentation personnelle ?

Rémi BoulleBonjour, dans la vraie vie, je suis père de famille.

Dans le monde du libre, je participe au projet OpenOffice.org Éducation, suis membre du CA d’EducOOo (qui développe OOo4kids), participe au groupe éducation de l’APRIL et bien sûr au groupe LinuxEdu de l’académie de Toulouse.

Quelles fonctions exercez-vous au sein de l’Académie de Toulouse ?

Je suis professeur de maths dans un collège de la proche banlieue toulousaine. J’enseigne depuis une dizaine d’année (déjà !). Je suis membre de l’IREM (groupe maths et Internet) et fais aussi de la formation continue (stages LinuxÉdu, tableur au collège, WIMS).

Qu’est-ce que le groupe LinuxÉdu ? (historique, structures, objectifs, effectifs, champ d’activites, etc.)


Vu la montée en puissance du libre dans nos métiers et la nécessité pour un professeur de pouvoir utiliser, modifier, redistribuer des ressources et ne voyant rien venir du côté de l’institution, nous nous sommes dits que c’était à nous de prendre des initiatives et de proposer.

Avec des collègues (Frédéric Bellissent et Yves Dhenain), nous avons donc proposé un premier stage « Linux et les logiciels libres pour l’éducation ». Celui-ci a eu beaucoup de demandes. L’intérêt des personnels pour le libre et pour linux est bien présent. Le libre est, pour les enseignants, une nécessité professionnelle. Depuis, nous avons lancé un stage « niveau 2 ».

Tout cela nous a beaucoup encouragé. Nous avons donc continué de fédérer au plan académique les professionnels de l’éducation utilisateurs du libre et à intensifier nos actions. La liste de diffusion, deux sites Internet, le canal IRC, le micro-blogging… sont d’ailleurs des outils essentiels pour cela.

La structure du groupe LinuxÉdu ? Ce serait davantage une communauté de pratique informelle plutôt du côté du bazar que de la cathédrale. Nous mutualisons nos connaissances, échangeons, partageons… Le groupe au sens large est formé de 150 à 200 personnes. On y trouve majoritairement des professeurs, certains en charge de la gestion du réseau de leur établissement mais aussi des personnels du rectorat, des membres des AIDAT (assistance informatique pour les réseaux pédagogiques), du CRIA (idem mais pour les réseaux administratifs) et aussi des développeurs ou des gérants de SSLL travaillant dans l’éducation.

Est-ce le premier et (pour le moment) unique groupe faisant explicitement la promotion du logiciel libre au sein d’un site académique ?


J’ai l’impression que oui. J’espère me tromper. Pourtant faire progresser les pratiques sur ce plan est relativement simple à faire et vite très efficace…

Je profite de cette interview pour lancer un appel à l’ensemble des personnels de l’éducation afin que, dans leurs académies :

  • ils créent une liste de diffusion type linuxedu@ac-monacademie.fr (contacter le service académique ad hoc).
  • ils fassent une communication la plus large possible de l’existence de cette liste dans le maximum de réseaux professionnels (listes professionnelles, syndicats, listes internes…) afin d’en augmenter l’effectif.

Il est fondamental dans un premier temps de rassembler les enseignants innovants que sont les utilisateurs du libre dans une liste de diffusion académique. Le reste suivra.

Vous avez donc réussi à investir la formation continue des enseignants en proposant des stages originaux. Pouvez-vous nous en dire plus ?


Dans notre académie, il n’y avait pas de stages fléchés « ressources libres », « Linux » ou « intéropérabilité ». De nos jours, un Plan Académique de Formation (PAF) sans ce type de contenu ne peut, à mon avis, sembler qu’incomplet. Quid alors des parties « veille technologique et pédagogique », « innovations pédagogiques » sans ce volet ?

Si ce n’était pas à nous de combler ce vide, qui l’aurait fait ?

Il faut savoir qu’en théorie n’importe qui peu proposer des stages de formations. Je veux dire par là que ce n’est pas seulement les gros opérateurs de formations comme les IUFM ou les Inspections. Un personnel peut tout à fait proposer un stage… et voir sa proposition validée. C’est la voie que nous avons suivi.

Lorsque notre proposition de stage est arrivée en commission, je sais qu’elle a été bien accueillie. Le groupe LinuxÉdu s’est constitué au fil de ces formations.

Avez-vous rencontré des résistances internes aussi bien pour ce qui concerne la création de LinuxEdu que pour les propositions de stages ? Mais peut-être que le temps d’une certaine méfiance vis-à-vis du logiciel libre est définitivement révolu ?

Selon Héraclite, les chiens aboient contre les inconnus… face à quelque chose que l’on est incapable de comprendre, l’Homme est plus souvent tenté d’attaquer. Ce fût parfois le cas pour le libre et ce fût le plus souvent cocasse. Ce stade est, je pense, révolu.

Le libre est une solution de qualité professionnelle pour nos établissements scolaires. C’est déjà le cas en entreprise. Au delà du logiciel, la licence libre est tout ce qu’il y a de plus compatible avec les missions d’un professeur. Cela ne semble pas faire de doutes. Reste à vraiment franchir le pas.

Nous travaillons beaucoup avec le Centre Régional de Documentation Pédagogique (CRDP) de Midi-Pyrénées. Nous y avons toujours eu un accueil des plus favorables. Ils ont été un partenaire crucial pour les journées TICE libres en 2009.

La Mission aux TICE de notre académie avec qui nous avons de très bons contacts nous a ouvert la liste de diffusion ainsi qu’un hébergement sans difficultés. Elle fait aussi partie de nos partenaires, nous y avons notamment déjà fait une réunion de travail pour notre projet de paquets « linuxedu ».

De quoi s’agit-il ?

Quasiment tous les serveurs des réseaux pédagogiques des établissements sont sous windows, ce n’est pas le cas pour les réseaux administratifs et des serveur web du rectorat qui sont sous Linux.

L’idée est de mettre à disposition des établissements un paquet logiciel pour linux qui automatise l’intégration d’une machine Linux dans le réseau et qui installe aussi toute une sélection de logiciels et ressources pédagogiques.

Ainsi, un élève ou un professeur, qu’il soit sous Linux ou Windows, utilisera le même compte, retrouvera ses propres documents et bénéficiera de la complémentarité des deux univers.

On a tendance à caricaturer le corps enseignant comme un bloc monolithique assez difficile à déplacer. Comment faites-vous pour arriver à convaincre les enseignants de « s’essayer au Libre » ? Abordez-vous le sujet en insistant sur la qualité technique (angle « open source ») ou en mettant plutôt l’accent sur le caractère éthique et social du logiciel libre (angle « free software ») ?


L’accès au code source importe peu à la très grande majorité des enseignants. Ce n’est tout simplement pas notre métier.

L’angle idéal est celui des ressources. Pouvoir récupérer une ressource pédagogique, la modifier, y adjoindre des éléments venant d’ailleurs, la redistribuer à nos élèves, à nos collègues c’est un aspect très important de notre travail. Cela implique d’avoir des formats ouverts, d’utiliser des logiciels librement distribuables, des ressources libres… Le libre est une condition nécessaire d’exercice forte de notre métier. D’ailleurs beaucoup d’enseignants développent des logiciels libres éducatifs.

Le monde propriétaire même s’il a des produits de qualité complique inutilement notre travail, pose des barrières à la transmission des connaissances à nos élèves, à la mutualisation de nos ressources : problèmes de formats qui ne sont pas intéropérables, de logiciels dont la mise à jour n’est pas automatique, dont on impose indirectement l’achat ou la copie illégale à nos élèves, problème de licence des ressources, difficulté d’interagir avec les développeurs… C’est une vision de l’éducation qui contraste quelque peu avec les valeurs de l’école de la République.

Cette découverte s’accompagne-t-elle de réelles migrations chez nos collègues, jusqu’à changer de système d’exploitation ?


On en observe de plus en plus. Dans tous les cas, la curiosité et l’envie sont très vives. Ce BarCamp est aussi destiné à accompagner celles et ceux qui souhaitent migrer.

Quelles sont vos relations avec la très dynamique association TouLibre ?


Excellentes ! Je suis d’ailleurs membre de Toulibre même si je participe plus souvent aux Qjelt. Ils nous ont beaucoup aidé lors de l’organisation de LinuxEdu Pride 2008, des journées TICE libres 2009 ainsi que pour La journée du libre pour l’éducation en partenariat avec les cinémas Utopia. Nous savons que nous pouvons compter sur eux dans le futur.

Le mercredi 7 octobre prochain aura lieu le premier « BarCamp TICE libres » au CRDP Midi-Pyrénées à Toulouse. Pourquoi une telle manifestation et quel en sera le programme ?


L’idée est de permettre aux collègues d’avoir une antenne du libre éducatif à leur disposition, de servir de point relais, de lieu d’innovation technique et pédagogique. Comme nous avons tous des centres d’intérêts variés et que nous voulons tous avancer, l’organisation sous forme de BarCamp s’est imposée.

Selon Wikipédia, Un BarCamp, c’est une rencontre, une non-conférence ouverte qui prend la forme d’ateliers-événements participatifs où le contenu est fourni par les participants qui doivent tous, à un titre ou à un autre, apporter quelque chose au Barcamp.

Tout le monde est invité à participer quelles que soient ses compétences techniques : on peut présenter un logiciel, un exemple d’activité utilisant les TICE, aborder des aspects techniques mais aussi une simple idée…

« BarCamp » c’est pour faire moderne ou bien cela cache une véritable originalité dans l’organisation et le déroulement de l’évènement ?


Un peu les deux j’avoue. J’ai l’impression que les programmes trop définis, trop minutés ont tendance a attirer moins de participants. L’idée de base est que nous avons tous des compétences, des connaissances et que nous souhaitons les donner et en recevoir. Partageons-les !

Outre TouLibre et LinuxÉdu, Toulouse accueille également le président d’Ubuntu-fr (Christophe Sauthier) et la présidente de Wikimedia France (Adrienne Alix). Est-ce un hasard ? Pourquoi Toulouse a-t-elle de telles bonnes dispositions pour le Libre ? Et pourquoi ne pas avoir encore organisé de RMLL ?


Je ne sais pas. Peut-être le confit de canard et le Gaillac ont-ils tendance à libérer ? À vérifier lors des RMLL à Toulouse 😉

Une dernière chose. Est-ce que le service rendu par le réseau Framasoft vous est utile. Et que nous suggéreriez-vous pour l’améliorer ?


Je suis venu au libre par l’approche « free software » et avec l’aide de Framasoft. Surtout continuez !




Fracture et solidarité numériques, par Jean-Pierre Archambault

Ferdinand Reus - CC by-saRien de tel pour aborder la rentrée scolaire qu’un excellent article de synthèse de notre ami Jean-Pierre Archambault qui réunit ici deux de ses sujets favoris : le logiciel libre et la place de l’informatique à l’école.

Il est intéressant de noter que l’auteur a associé dans le titre les termes « fracture » et « solidarité », sachant bien que le logiciel, les contenus et les formats libres et ouverts apportent non seulement une réponse au premier mais développent et favorisent le second[1].

Un article un peu long pour un format blog mais qui vaut le coup ! Pour vous donner un ordre d’idée il correspond à deux cents messages Twitter que l’on parcourerait en enfilade 😉

Fracture et solidarité numériques

URL d’origine du document

Jean-Pierre Archambault – septembre 2009 – Association EPI
Licence Creative Commons By-Nd


Le thème de la fracture numérique est solidement installé dans le paysage des débats sociétaux. La nécessité de la réduire prend des allures de consensus : acceptons-en l’augure. Une raison de fond à cela : la place sans cesse croissante de l’informatique dans tous les secteurs de la société, et les enjeux qui y correspondent. La fracture numérique ce sont les inégalités d’accès aux réseaux, aux contenus entre le Nord et le Sud, ainsi qu’au sein des pays développés. Ce sont aussi les inégalités en terme de maîtrise conceptuelle du numérique. Nous examinerons ces problématiques. Le libre, désormais composante à part entière de l’industrie informatique, a permis de constituer au plan mondial un bien commun informatique, accessible à tous. Nous verrons donc pourquoi il est intrinsèquement lié à la lutte contre la fracture numérique, et donc à la solidarité numérique, avec son approche, transposable pour une part à la production des autres biens informationnels, ses réponses en matière de droit d’auteur. Comme le sont également les formats et les standards ouverts. Et nous rappellerons que dans la société de la connaissance, la « matière grise » et l’éducation jouent, on le sait, un rôle décisif.

Le numérique partout

Le numérique est partout, dans la vie de tous les jours, au domicile de chacun, avec l’ordinateur personnel et l’accès à Internet ; dans l’entreprise où des systèmes de contrôle informatisés font fonctionner les processus industriels. Ses métiers, et ceux des télécommunications, occupent une place importante dans les services. On ne compte plus les objets matériels qui sont remplis de puces électroniques. Il y a relativement, et en valeur absolue, de plus en plus de biens informationnels. C’est l’informatique, pour ne prendre que ces exemples, qui a récemment fait faire de très spectaculaires progrès à l’imagerie médicale et qui permet ceux de la génétique. Elle modifie progressivement, et de manière irréversible, notre manière de poser et de résoudre les questions dans quasiment toutes les sciences expérimentales ou théoriques qui ne peuvent se concevoir aujourd’hui sans ordinateurs et réseaux. Elle change la manière dont nous voyons le monde et dont nous nous voyons nous-mêmes. L’informatique s’invite aussi au Parlement, ainsi on s’en souvient, en 2006, pour la transposition de la directive européenne sur les Droits d’auteur et les droits voisins dans la société de l’information (DADVSI), suscitant des débats complexes où exercice de la citoyenneté rimait avec technicité et culture scientifique. Et plus récemment avec la « loi Hadopi ».

La fracture numérique

On imagine sans peine que pareille omniprésence de l’informatique signifie des enjeux forts, économiques notamment. Que tous ne soient pas sur un pied d’égalité, loin s’en faut, face aux profondes mutations que le numérique engendre ne saurait a priori surprendre. Cela vaut, à plus ou moins grande échelle, pour tous les pays. Il y a beaucoup de fractures : sanitaires, alimentaires… Culturelles aussi. Ainsi concernant la maîtrise de sa langue maternelle. Ainsi la fracture mathématique, qui serait bien plus grave encore s’il n’y avait pas un enseignement de culture générale mathématique tout au long de la scolarité. Si l’interrogation sur « la poule et l’oeuf » est éternelle, on peut penser qu’« il est certain que la fracture numérique résulte des fractures sociales produites par les inégalités sur les plans économique, politique, social, culturel, entre les hommes et les femmes, les générations, les zones géographiques, etc. »[2].

Un problème d’accès

La fracture numérique tend à être perçue, d’abord et surtout, comme un problème d’accès : les recherches sur Internet avec son moteur préféré ne laissent aucun doute à ce sujet. Il y a ceux pour qui il est possible, facile de disposer d’ordinateurs connectés au réseau mondial, et les autres. C’est vrai pour le monde en général, et la France en particulier. En juin 2008, présentant « ordi 2.0 », plan anti-fracture numérique, Éric Besson rappelait qu’« être privé d’ordinateur aujourd’hui pour les publics fragiles, c’est être privé d’accès à l’information, à la culture, à l’éducation, aux services publics, donc être exposé à un risque accru de marginalisation ». Un premier volet de son plan, qui confirmait la possibilité prévue par la loi de finances 2008, permettait aux entreprises de donner leurs ordinateurs inutiles, mais en état de marche, à leurs salariés, sans charges sociales ni fiscales. Un deuxième volet visait à favoriser la création d’une filière nationale de reconditionnement, de redistribution et de retraitement des ordinateurs, ainsi que la mise en place d’un « label de confiance », garantissant un matériel en état de fonctionnement et vendu à très bas prix.

La fracture numérique a une dimension géographique. De ce point de vue, la question de l’accès égal aux réseaux est primordiale. Une politique d’aménagement du territoire ne peut que s’en préoccuper. Avec l’objectif de « démocratiser le numérique en accélérant le déploiement des infrastructures », la décision 49 du Rapport de la Commission pour la libération de la croissance française, sous la présidence de Jacques Attali[3], consistait en la « garantie d’une couverture numérique optimale en 2011 ». La décision 51, « faciliter l’accès de tous au réseau numérique » correspondait à l’objectif de réduire les fractures numériques, dont il était dit qu’« elles recouvrent la fracture sociale ». Elle proposait d’« accélérer le taux d’équipement en ordinateurs dans les foyers et TPE/PME avec un objectif d’équipement de 85 % en 2012, au moyen notamment de donations des PC usagés, de soutiens spécifiques aux étudiants, et microcrédit social ».

Pour le World Wide Web consortium qui, le 28 mai 2008, lançait un groupe d’intérêt web mobile pour le développement social (MW4D), « les technologies mobiles peuvent ouvrir aux plus pauvres des accès à des services d’informations essentiels comme les soins de santé, l’éducation, les services administratifs »[4].

L’accès à Internet, un bien commun

Le problème de l’accès est bien réel. De l’accès à Internet, tel qu’il a été créé et a fonctionné jusqu’à maintenant, et qu’il faut préserver. En effet, Internet est, en lui-même, un bien commun accessible à tous, une ressource sur laquelle n’importe quel usager a des droits, sans avoir à obtenir de permission de qui que ce soit. Son architecture est neutre et ouverte. Le « réseau des réseaux » constitue un point d’appui solide dans la lutte contre la fracture numérique[5].

Internet repose sur des standards ouverts de formats de données (HTML pour écrire des pages web) et de protocoles de communication (TCP/IP, HTTP). Il fonctionne à base de logiciels libres : Apache, SendMail, Linux… Il est donc impossible de verrouiller le réseau par la pratique du secret. Les logiciels libres contribuent à construire une plate-forme neutre. Ils la protègent par des licences comme la GPL et la diffusion du code source, garantissant aux développeurs qu’elle le restera dans l’avenir.

Les logiciels et les contenus numériques

Si l’accent est mis, à juste titre, sur la nécessité de disposer d’un ordinateur pour accéder au monde du numérique[6], les discours sont en général plus « discrets » sur le système d’exploitation. Or, sans système d’exploitation, que les acheteurs ont encore trop souvent l’impression de ne pas payer même lorsqu’il est « propriétaire », pas de machine qui fonctionne.

La fracture numérique, c’est aussi les inégalités d’accès aux logiciels et aux contenus, les régimes de propriété intellectuelle qui entravent leur circulation, leur production. Il y a désormais deux informatiques qui coexistent : libre et propriétaire. Des contenus numériques sous copyright mais aussi sous licences Creative Commons. Ces approches diffèrent sensiblement, sont quasiment antinomiques. Le débat sur leurs « mérites » respectifs, et les choix à opérer, se situe de plain-pied dans la problématique de la fracture numérique. Il peut arriver qu’il en soit absent, les deux « protagonistes » n’étant pas explicitement nommés. Cela étant, la Conférence « Repenser la fracture numérique » de l’Association for Learning Technology, dans une vision multidimensionnelle de la fracture numérique, posait la question « Open or proprietary ? »[7]. Une question qui mérite effectivement d’être posée.

Ce fut le cas à l’Université d’été de Tunisie qui s’est déroulée à Hammamet, du 25 au 28 août 2008[8]. Organisée par le Fonds Mondial de Solidarité Numérique (FSN)[9] et par l’Association pour le Développement de l’Éducation en Afrique (ADEA), elle était consacrée au thème de « La solidarité numérique au service de l’enseignement ». À son programme figuraient notamment les usages du TBI (Tableau blanc interactif), la création de ressources pédagogiques par les enseignants « auto-producteurs » et le rôle des communautés d’enseignants, les problématiques de droits d’auteur. Un atelier, qui portait sur les ressources pédagogiques des disciplines scientifiques et techniques des lycées, a fait différentes propositions dont l’une essentielle aux yeux de ses participants, qui affirme que les logiciels et les ressources pédagogiques utilisés et produits doivent être libres. Les standards et les formats de données doivent être ouverts[10]. Trois raisons ont motivé cette proposition : les coûts, le caractère opérationnel de la production collaborative de contenus pédagogiques, et le fait que les modalités de réalisation et les réponses du libre en terme de propriété intellectuelle sont en phase avec la philosophie générale d’un projet de solidarité numérique, à savoir partage, coopération, échange.

Le projet RELI@, « Ressources en ligne pour institutrices africaines », est destiné à améliorer la qualité de l’enseignement dans les pays du Sud par l’utilisation des outils et contenus numériques. Il repose sur des logiciels et ressources libres. Il a tenu son premier atelier à Dakar, du 22 au 24 octobre 2008[11]. Un « Appel de Dakar » a été lancé pour la production panafricaine de ressources pédagogiques numériques libres.

L’Unesco prime le libre

En 2007, l’association Sésamath[12] a reçu le 3e prix UNESCO (sur 68 projets) sur l’usage des TICE[13]. Pour le jury, Sésamath est « un programme complet d’enseignement des mathématiques conçu par des spécialistes, des concepteurs et près de 300 professeurs de mathématiques ». Il a été récompensé « pour la qualité de ses supports pédagogiques et pour sa capacité démontrée à toucher un large public d’apprenants et d’enseignants ».

« Remerciant particulièrement la commission française pour l’UNESCO qui a soutenu officiellement sa candidature », l’association Sésamath a vu dans l’obtention de ce prix « l’ouverture d’une nouvelle ère pour son action, vers l’internationalisation et plus particulièrement encore vers l’aide au développement ». Elle a ajouté : « Que pourrait-il y avoir de plus gratifiant pour des professeurs de Mathématiques que de voir leurs productions coopératives libres (logiciels, manuels…) utilisées par le plus grand nombre et en particulier par les populations les plus défavorisées ? C’est vrai dans toute la Francophonie… mais de nombreuses pistes de traductions commencent aussi à voir le jour. »[14]

Les deux lauréats 2007 étaient le Consortium Claroline[15] et Curriki[16]. Claroline, représenté par l’Université Catholique de Louvain, en Belgique, fournit à quelque 900 établissements répartis dans 84 pays une plate-forme « open source », sous licence GPL, en 35 langues. Claroline offre une série d’outils pédagogiques interactifs et centrés sur l’apprenant. C’est un modèle de réseau et de communauté qui met en relation des apprenants, des enseignants et des développeurs du monde entier. Créée en 2004 par Sun Microsystems, Curriki est une communauté mondiale qui se consacre à l’éducation et à la formation. Elle a désormais le statut d’organisme à but non lucratif. Elle fournit un portail Internet, un ensemble d’outils et de services aux utilisateurs grâce auxquels chacun peut librement concevoir, regrouper, évaluer et enrichir les meilleurs programmes d’enseignement, ce qui permet de répondre aux besoins de toutes les classes d’âge et de toutes les disciplines. Curriki a ainsi créé une communauté très vivante composée d’enseignants, d’apprenants, de ministères de l’Éducation, d’établissements scolaires et d’organisations publiques et privées.

L’UNESCO a ainsi mis à l’honneur des démarches éducatives fondées sur le libre, logiciels et ressources.

Parmi les avantages du libre

Parmi les avantages du libre, bien connus, il y a des coûts nettement moins importants. Si libre ne signifie pas gratuit, on peut toujours se procurer une version gratuite d’un logiciel libre, notamment en le téléchargeant. Une fantastique perspective quand, organisée au niveau d’un pays, la diffusion d’un logiciel libre permet de le fournir gratuitement à tous, avec seulement des coûts de « logistique » pour la collectivité mais une économie de licences d’utilisation à n’en plus finir.

Partage-production collaborative-coopération sont des maîtres mots de la solidarité numérique qui supposent des modalités de propriété intellectuelle qui, non seulement, favorisent la circulation des ressources numériques et les contributions des uns et des autres mais, tout simplement l’autorisent. La réponse est du côté de la GPL et des Creative Commons.

L’on sait la profonde affinité entre libre et standards et formats ouverts. Or, par exemple, les documents produits par un traitement de texte lambda doivent pouvoir être lus par un traitement de texte bêta, et réciproquement. La coopération et l’échange sont à ce prix. Il s’agit là d’une question fondamentale de l’informatique et de la fracture numérique. Tout citoyen du monde doit pouvoir avoir accès à ses données, indépendamment du matériel et du logiciel qu’il utilise. De plus en plus de biens informationnels ont une version numérisée. L’enjeu est d’accéder au patrimoine culturel de l’humanité, de participer à sa production, d’être un acteur à part entière du partage et de la coopération.

Avec le libre, chaque communauté peut prendre en main la localisation/culturisation qui la concerne, connaissant ses propres besoins et ses propres codes culturels mieux que quiconque. Il y a donc, outre une plus grande liberté et un moindre impact des retours économiques, une plus grande efficacité dans le processus, en jouant sur la flexibilité naturelle des créations immatérielles pour les adapter à ses besoins et à son génie propre. C’est aussi plus généralement ce que permettent les « contenus libres », c’est-à-dire les ressources intellectuelles – artistiques, éducatives, techniques ou scientifiques – laissées par leurs créateurs en usage libre pour tous. Logiciels et contenus libres promeuvent, dans un cadre naturel de coopération entre égaux, l’indépendance et la diversité culturelle, l’intégration sans l’aliénation.

Les logiciels (et les ressources) libres, composante à part entière de l’industrie informatique, ne peuvent qu’avoir une place de choix dans la lutte contre la fracture numérique. Sans pour autant verser dans l’angélisme. Entre les grands groupes d’acteurs du libre (communautés de développeurs, entreprises, clients comme les collectivités), dont les motivations et ressorts sont divers, il existe des conflits et des contradictions. Des dérives sont possibles, comme des formes de travail gratuit. Mais au-delà des volontés des individus, il y a la logique profonde d’une façon efficace de produire des contenus de qualité[17].

L’accès à la culture informatique

Dans un texte de l’UNESCO, TIC dans l’éducation[18], il est dit que « l’utilisation des TIC dans et pour l’éducation est vue maintenant dans le monde entier comme une nécessité et une opportunité. ». Les grandes questions sur lesquelles l’UNESCO se concentre en tant « qu’expert et conseiller impartial » sont : « Comment peut-on employer les TIC pour accélérer le progrès vers l’éducation pour tous et durant toute la vie ? (…) En second lieu, les TIC, comme tous les outils, doivent être considérées en tant que telles, et être employées et adaptées pour servir des buts éducatifs. » Elle revendique que « l’initiation à l’informatique soit reconnue comme une compétence élémentaire dans les systèmes d’enseignement »[19].

Le numérique, ce sont des outils conceptuels, des abstractions, une discipline scientifique et technique en tant que telle. Au service des autres disciplines, comme le sont les mathématiques. L’ordinateur est une prothèse du cerveau, dont on se sert d’autant plus intelligemment qu’on en connaît l’« intelligence »[20]. La fracture numérique ne serait-elle pas aussi (d’abord ?) une fracture culturelle, qui ne concerne pas que le Sud ? D’ailleurs, ne parle-t-on pas fréquemment de l’« accès » à la culture ?

« L’utilisation d’un outil, si fréquente et diversifiée soit-elle, ne porte pas en elle-même les éléments qui permettent d’éclairer sa propre pratique. »[21] « Comment en effet procéder à une recherche d’information efficace lorsque l’on n’a aucune connaissance du mode de fonctionnement de l’instrument utilisé ? »[22] Or, une enquête menée auprès de 640 000 utilisateurs de l’internet en France en 2001 avait montré que 87 % d’entre eux ne savaient pas se servir d’un moteur de recherche[23]. « Depuis que "l’homo faber" fabrique des outils et s’en sert, une bonne intelligence de l’outil est considérée comme nécessaire pour une bonne utilisation, efficace, précise et raisonnée : plus on en sait quant aux possibilités de réglage et aux conditions d’utilisation mieux cela vaut, partout. Il n’y aurait que l’informatique qui échapperait à cette règle et où l’ignorance serait un avantage ! »[24].

Partout dans le monde, lutter véritablement contre la fracture numérique suppose de donner à tous les élèves les fondamentaux scientifiques du domaine[25]. L’objectif est la maîtrise de ces instruments intellectuels d’un type nouveau. Elle n’est pas vraiment aisée et nécessite des années d’apprentissage (pour un individu il faut environ 20 ans pour maîtriser l’ensemble des instruments et méthodes liés à l’exercice d’une pensée rationnelle). On voit mal comment la diffusion d’objets matériels permettrait en elle-même de raccourcir les délais d’apprentissage, comment on entrerait dans le monde du numérique, abstrait et conceptuel, sans en faire un objet d’étude.

À l’appui de cette nécessité d’enseignement en tant que tel, le fait que la fracture numérique peut se loger là où on ne l’attend pas. Ainsi pointe-t-on une fracture numérique qui émerge, non plus entre les particuliers, mais entre les entreprises, notamment les plus petites et les plus grandes[26]. D’un côté « les mieux loties, accompagnées d’une armée de consultants ou naturellement aguerries à ces sujets ». De l’autre « des centaines de milliers d’entreprises qui souhaitent ardemment tirer profit, dès maintenant, des outils à disposition mais qui butent sur la complexité technologique, les tarifications inadaptées, les offres sur ou sous dimensionnées sans parler des compétences inaccessibles et en voie de raréfaction ». En fait, on voit aujourd’hui émerger « une nouvelle e-aristocratie qui va à l’encontre de la promesse de démocratisation des bénéfices économiques des NTIC (productivité, économie, accessibilité) ».

Dans leur rapport sur l’économie de l’immatériel[27], Maurice Lévy et Jean-Pierre Jouyet soulignent que, dans l’économie de l’immatériel, « l’incapacité à maîtriser les TIC constituera (…) une nouvelle forme d’illettrisme, aussi dommageable que le fait de ne pas savoir lire et écrire ». Ils mettent en évidence les obstacles qui freinent l’adaptation de notre pays à l’économie de l’immatériel, notamment « notre manière de penser », invitant à changer un certain nombre de « nos réflexes collectifs fondés sur une économie essentiellement industrielle ».

La lutte contre la fracture numérique a bien d’abord une dimension éminemment culturelle. Il s’agit d’un enjeu éducatif majeur, de culture générale scientifique et technique pour tous. D’un défi aussi dont les réponses pour le relever se trouvent d’évidence dans les systèmes éducatifs, dont c’est une des raisons d’être.

Jean-Pierre Archambault
Chargé de mission au CNDP-CRDP de Paris

Notes

[1] Crédit photo : Ferdinand Reus (Creative Commons By-Sa)

[2] Les politiques de tous les bords, beaucoup d’institutions (Banque Mondiale et le G8, l’Union Européenne, l’UNESCO…) s’emparent de la problématique de la fracture numérique, avec l’objectif affirmé de la résorber. D’autres s’en inquiètent : « Dejà, le fait qu’une telle notion fasse l’objet d’un consensus aussi large, au sein de groupes sociaux qui s’opposent les uns aux autres, donne à penser qu’elle est scientifiquement fragile. ». Voir La fracture numérique existe-t-elle ?, Éric Guichard, INRIA – ENS.

[3] http://www.liberationdelacroissance.fr/files…

[4] http://www.sophianet.com/wtm_article47688.fr.htm

[5] On pourra se référer aux études de Yochai Benkler reprises par Lawrence Lessig dans son remarquable ouvrage L’avenir des idées, Presses universitaires de Lyon, 2005. Voir « Innover ou protéger ? un cyber-dilemme », Jean-Pierre Archambault, Médialog n°58.

[6] Mais, à trop privilégier dans le discours le nécessaire équipement de tous, il y a le risque de donner à croire que les intérêts des constructeurs ne sont pas loin, en arrière plan de la « noble » lutte contre la fracture numérique.

[7] http://thot.cursus.edu/rubrique.asp?no=27124

[8] http://www.tunisiait.com/article.php?article=2912

[9] ttp://www.dsf-fsn.org/cms/component/option…

[10] http://repta.net/repta/telechargements/Universite_Tunisie…

[11] Premier atelier RELI@ à Dakar : Appel de DAKAR pour la production panafricaine de ressources pédagogiques numériques libres.

[12] http://sesamath.net

[13] http://portal.unesco.org/fr…

[14] http://www.sesamath.net/blog…

[15] http://www.claroline.net/index.php?lang=fr

[16] http://www.curriki.org/xwiki/bin/view/Main/WebHome

[17] L’économie du logiciel libre, François Élie, Eyrolles, 2008.

[18] http://portal.unesco.org/ci/fr/ev.php-URL_ID=2929…

[19] http://portal.unesco.org/ci/fr/ev.php-URL_ID=4347…

[20] « Informatique et TIC : une vraie discipline ? », Jean-Pierre Archambault, Médialog n° 62,

[21] Ordinateur et système éducatif : quelques questions, in Utilisations de l’ordinateur dans l’enseignement secondaire, Jean-Michel Bérard, Inspecteur général de l’Éducation nationale, Hachette Éducation, 1993.

[22] « La nature du B2i lui permet-elle d’atteindre ses objectifs ? » Jean-François Cerisier, Les dossiers de l’ingénierie éducative n° 55, septembre 2006.

[23] http://barthes.ens.fr/atelier/theseEG/

[24] « Enseigner l’informatique », Maurice Nivat, membre correspondant de l’Académie des Sciences,

[25] Voir : Le bloc-notes de l’EPI, La formation à l’informatique et aux TIC au lycée / Proposition de programme / Seconde Première Terminale et « Quelle informatique enseigner au lycée ? », Gilles Dowek, professeur d’informatique à l’École Polytechnique, intervention à l’Académie des Sciences du 15 mars 2005.

[26] Une fracture numérique existe aussi entre les entreprises, Vincent Fournoux, Le Journal du Net du 31 juillet 2008.

[27] L’économie de l’immatériel – La croissance de demain, rapport de la commission sur l’économie de l’immatériel remis à Thierry Breton, Maurice Lévy, Jean-Pierre Jouyet, décembre 2006.




Pandémie grippale + Sanction Hadopi = Continuité pédagogique non assurée

Freeparking - CC byCette rentrée scolaire rime avec risque annoncé de pandémie grippale A/H1N1.

C’est pourquoi le ministère de l’Éducation nationale a rédigé une circulaire apportant « les réponses que la communauté éducative attend, en matière d’hygiène et de santé au travail et en matière de continuité pédagogique ».

Pour ce qui concerne la continuité pédagogique, on peut lire ceci pour les collèges et les lycées[1] :

« Dans tous les cas d’absence d’élèves, de fermeture de classes ou d’établissements, il appartient à chaque professeur d’assurer la continuité pédagogique des cours de sa discipline. Pour ce faire, plusieurs moyens sont mobilisables ; les établissements s’organiseront en tenant compte de l’ensemble des équipements et des compétences dont ils disposent.

Pour les établissements disposant d’espace numérique de travail (E.N.T.) ou fournissant par le biais d’internet un accès à des ressources pédagogiques, les professeurs pourront adresser les supports de cours et d’exercices aux élèves absents et permettre ainsi un échange continu et interactif ;

En l’absence d’E.N.T., les travaux à faire pourront être mis en ligne sur le site de l’établissement, et s’appuieront sur les manuels scolaires utilisés en classe.

Si le site de l’établissement est indisponible, et pour les élèves ne disposant pas d’accès à internet, les travaux à faire à la maison seront remis aux élèves dès l’avis de fermeture de la classe ou de l’établissement.

De surcroît, les professeurs conseilleront aux familles équipées d’internet de se connecter au site http://www.academie-en-ligne.fr, mis en place par le CNED qui propose à titre gratuit des ressources téléchargeables : cours et exercices sous forme écrite ou audio. Ces ressources seront disponibles dès la mi-septembre pour le premier degré, fin octobre pour la plupart des disciplines d’enseignement général du second degré. »

Le dénominateur commun de toutes ces mesures (sauf une) ?

Elles nécessitent un accès à Internet. Ce qui n’est pas encore le cas de tous les foyers français.

Mais si en plus Hadopi s’en mêle, en étant susceptible de couper la connexion à toute une famille, on arrive à une situation pour le moins problématique !

C’est ce que nous rappelle l’Isoc France[2], dans un récent communiqué que nous avons reproduit ci-dessous, à la veille de l’examen à l’Assemblée nationale du projet de loi « Hadopi 2 » (qui aura lieu le mardi 15 septembre prochain).

PS : Pour une lecture (plus que) critique du site de l’Académie en ligne, nous vous renvoyons vers ce billet du Framablog.

Hadopi 2 et pandémie : ne coupez pas l’éducation en ligne !

URL d’origine du document

Isoc – 9 septembre – Communique de Presse

Les solutions proposées pour affronter la pandémie grippale mettent au jour l’inanité des dispositions contenues dans la loi dite Hadopi 2, à commencer par la coupure de l’accès pour toute une famille.

Prochainement proposée au vote du Parlement, cette loi fait suite à la loi Hadopi 1 qui a été partiellement invalidée par le Conseil constitutionnel. Dès le début de la discussion relative à ce premier texte, le chapitre français de l’Internet Society a contesté que la coupure à Internet puisse être une sanction acceptable.

Pour faire face aux fermetures d’établissements, le gouvernement voudrait proposer des cours de substitution par Internet. En attendant que les classes puissent rouvrir normalement, Internet permettra ainsi à nos enfants de continuer à apprendre.

Or, si les dispositions de la Loi Hadopi 2 étaient en vigueur aujourd’hui, l’accès au net de milliers de famille pourrait être suspendu et leurs enfants privés de facto du droit à l’éducation.

Peut-on punir une famille entière, pour les errements supposés d’un de ses membres (ou de ses voisins) ? Quelle législation nationale, pour préserver les profits de quelques artistes et industriels du divertissement, priverait des milliers de familles de l’accès au réseau ?

La pandémie grippale vient rappeler qu’on ne peut pas prétendre entrer dans la société du 21e siècle avec des conceptions disciplinaires d’un autre âge. La société de la connaissance qui s’annonce est une société ouverte, où l’échange direct entre les individus est créateur de richesse et de sens. En votant l’Hadopi 2, les parlementaires français voteront pour le monde d’avant-hier.

La suspension d’Internet ne peut pas être la sanction au téléchargement illégal ou au défaut de sécurisation de sa connexion.

L’Isoc France demande aux députés français de penser au présent et l’avenir de nos enfants, au moment du vote. En leur âme et conscience.

Notes

[1] Crédit photo : Freeparking (Creative Commons By)

[2] Fondée en 1996 par une poignée de pionniers, l’Internet Society France est le Chapitre Français de l’Isoc Association internationale, A l’heure où le réseau devient un enjeu technologique, économique et sociétal majeur, l’Isoc France s’attache à préserver et à défendre les valeurs fondamentales de l’Internet que sont l’universalité, l’accessibilité, le respect des standards ouverts, la non discrimination du réseau et l’interopérabilité des solutions techniques.




George Clooney a une sale gueule ou la question des images dans Wikipédia

George Clooney - Bad Dog - Public DomainÀ moins d’être aussi bien le photographe que le sujet photographié (et encore il faut faire attention au décor environnant), impliquant alors soit d’avoir le don d’ubiquité soit d’avoir un pied ou le bras assez long, c’est en théorie un pur casse-tête que de mettre en ligne des photographies sur Internet.

Il y a donc pour commencer le droit de l’auteur, le photographe. Mais quand bien même il aurait fait le choix de l’ouverture pour ses images, avec par exemple une licence Creative Commons, il reste la question épineuse du droit du sujet photographié (qui peut être une personne, un monument architectural…). Et pour corser le tout, n’oublions pas le fait que la législation est différente selon les pays.

Et c’est ainsi que le Framablog se met quasi systématiquement dans l’illégalité lorsqu’il illustre ses billets par une photographie où apparaissent des gens certes photogéniques mais non identifiés. Parce que si il prend bien le soin d’aller puiser ses photos parmi le stock d’images sous Creative Commons d’un site comme Flickr, il ne respecte que le droit du photographe et non celui du ou des photographié(s), dont il n’a jamais eu la moindre autorisation.

C’est peut-être moins grave (avec un bon avocat) que ces millions de photos que l’écrasante majorité de la jeune génération partage et échange sans aucune précaution d’usage sur les blogs, MySpace ou Facebook, mais nous ne sommes clairement qu’à la moitié du chemin.

Le chemin complet du respect des licences et du droit à l’image, c’est ce que tente d’observer au quotidien l’encyclopédie libre Wikipédia. Et c’est un véritable… sacerdoce !

Vous voulez mettre en ligne une photo sur Wikipédia ? Bon courage ! L’avantage c’est que vous allez gagner rapidement et gratuitement une formation accélérée en droit à l’image 😉

Pour l’anecdote on cherche toujours à illustrer le paragraphe Framakey de notre article Framasoft de l’encyclopédie et on n’y arrive pas. Une fois c’est le logo de Firefox (apparaissant au microscope sur une copie d’écran de l’interface de la Framakey) qui ne convient pas, parce que la marque Firefox est propriété exclusive de Mozilla. Une fois c’est notre propre logo (la grenouille Framanouille réalisée par Ayo) qui est refusé parce qu’on ne peut justifier en bonne et due forme que sa licence est l’Art Libre.

Toujours est-il donc que si vous souhaitez déposer une image dans la médiathèque de Wikipédia (Wikimédia Commons) alors le parcours est semé d’embûches. L’enseignant que je suis est plutôt content parce que l’encyclopédie participe ainsi à éduquer et sensibiliser les utilisateurs à toutes ces questions de droit d’auteurs, de propriété intellectuelle… avec moultes explications sur l’intérêt d’opter (et de respecter) les licences libres. Mais il n’empêche que l’une des conséquences de ces drastiques conditions d’entrée, c’est que pour le moment Wikipédia manque globalement de photographies de qualité (comparativement à son contenu textuel).

C’est particulièrement criant lorsqu’il s’agit d’illustrer les articles sur des personnalités contemporaines[1] (les plus anciennes échappant a priori au problème avec le domaine public, sauf quand ces personnalités ont vécu avant… l’invention de la photographie !). Et c’est cette carence iconographique que le New York Times a récemment prise pour cible dans une chronique acide dont le traduction ci-dessous nous a servi de prétexte pour aborder cette problématique (chronique qui aborde au passage la question complexe du photographe professionnel qui, craignant pour son gagne-pain, peut hésiter à participer).

La situation est-elle réellement aussi noire que veut bien nous le dire le vénérable journal ?

Peut-être pas. Il y a ainsi de plus en plus de photographes de qualité, tel Luc Viatour, qui participent au projet . Il y a de plus en plus d’institutions qui, contrairement au National Portrait Gallery, collaborent avec Wikipédia en ouvrant leurs fonds et archives, comme en témoigne l‘exemple allemand. Même le Forum économique mondial de Davos s’y met (dépôt dans Flickr, utilisation dans Wikipédia). Sans oublier les promenades locales et festives où, appareil photo en bandoulière, on se donne pour objectif d’enrichir ensemble l’encyclopédie.

Du coup mon jugement péremptoire précédent, à propos de la prétendue absence globale de qualité des images de Wikipédia, est à nuancer. Il suffit pour s’en convaincre de parcourir les pages « images de qualité » ou l’« image du jour ».

L’encyclopédie est en constante évolution, pour ne pas dire en constante amélioration, et bien heureusement la photographie n’échappe pas à la règle. Même si il est vrai que le processus est plus lent parce qu’on lui demande de s’adapter à Wikipédia et non l’inverse.

Wikipédia, terre fertile pour les articles, mais désert aride pour les photos

Wikipedia May Be a Font of Facts, but It’s a Desert for Photos

Noam Cohen – 19 juillet 2009 – New York Times
(Traduction Framalang : Olivier et Goofy)

Une question de la plus haute importance : existe-t-il de mauvaises photos de Halle Berry ou de George Clooney ?

Halle Berry - Nancy Smelser - Public DomainFacile, allez sur Wikipédia ! Vous y trouverez une photo floue de Mlle Berry, datant du milieu des années quatre-vingt, lors de la tournée U.S.O. avec d’autres candidates au titre de miss USA. La mise au point est mauvaise, elle porte une casquette rouge et blanche, un short, c’est à peine si on la reconnait. L’article de Wikipédia sur M. Clooney est, quant à lui, illustré par une photo le montrant au Tchad, portant une veste kaki est une casquette des Nations Unies. Avec son grand sourire et ses traits anguleux il est toujours aussi beau, en compagnie de deux femmes travaillant pour les Nations Unies, mais on est loin d’un portait glamour.

Certains personnages éminemment célèbres, comme Howard Stern ou Julius Erving, n’ont même pas la chance d’avoir leur photo sur Wikipédia.

George Clooney - Nando65 - Public DomainAlors que de nos jours les célébrités s’offrent couramment les services d’une équipe de professionnels pour contrôler leur image, sur Wikipédia c’est la loi du chaos. Très peu de photographies de bonne qualité, particulièrement de célébrités, viennent enrichir ce site. Tout cela tient au fait que le site n’accepte que les images protégées par la plus permissive des licences Creative Commons, afin qu’elles puissent être ré-utilisées par n’importe qui, pour en tirer profit ou pas, tant que l’auteur de la photo est cité.

« Des représentants ou des agents publicitaires nous contactent, horrifiés par les photos qu’on trouve sur le site », confie Jay Walsh, porte-parole de la Wikimedia Foundation, l’organisme qui gère Wikipédia, l’encyclopédie en plus de 200 langues. « Ils nous disent : J’ai cette image, je voudrais l’utiliser. Mais ça n’est pas aussi simple que de mettre en ligne la photo qu’on nous envoie en pièce jointe. »

Il poursuit : « En général, nous leur faisons comprendre que de nous envoyer une photo prise par la photographe Annie Leibovitz ne servira à rien si nous n’avons pas son accord. »

Les photos sont l’un des défauts les plus flagrants de Wikipédia. À la différence des articles du site, qui, en théorie, sont vérifiés, détaillés à l’aide de notes, et qui se bonifient avec le temps, les photos sont l’œuvre d’une seule personne et elles sont figées. Si un mauvais article peut être amélioré, une mauvaise photo reste une mauvaise photo.

Les wikipédiens tentent de corriger ce défaut, ils organisent des événements ou des groupes de contributeurs vont prendre des clichés de bonne qualité de bâtiments ou d’objets. De même, Wikipédia s’efforce d’obtenir la permission d’utiliser d’importantes collections de photographies.

L’hiver dernier, les archives fédérales allemandes ont placé cent mille photos basse résolution sous une licence permettant leur usage dans Wikipédia. Récemment, un utilisateur de Wikipédia, Derrick Coetzee, a téléchargé plus de trois mille photos haute résolution d’œuvres de la National Portrait Gallery de Londres, pour qu’elles soient utilisées, essentiellement, pour illustrer les articles se rapportant à des personnes historiques célèbres comme Charlotte Brontë ou Charles Darwin.

La galerie a menacé de porter plainte contre M. Coetzee, affirmant que même si les portraits, de par leur ancienneté, ne tombent plus sous la protection du droit d’auteur, les photographies elles sont récentes et du coup protégées. La galerie exige une réponse de M. Coetzee pour lundi. Il est représenté par l’Electronic Frontier Foundation. S’exprimant par e-mail vendredi, une porte-parole de la galerie, Eleanor Macnair, écrit qu’un « contact a été établi » avec la Wikimedia Foundation et que « nous espérons toujours que le dialogue est possible ».

On reste pourtant bien loin du compte et le problème des photographies sur Wikipédia est tout sauf réglé. Dans la galerie des horreurs, l’ancienne star de la NBA, George Gervin, aurait une place de choix. Debout, droit comme un I dans son costard, sur une photo aux dimensions pour le moins étranges, même pour un joueur de basket-ball. La photo, recadrée et libre de droit, provient du bureau du sénateur du Texas, John Cornyn.

Barack Obama - Pete Souza - CC byL’exemple de M. Gervin illustre un fait établi : le gouvernement alimente le domaine public de nombreuses photographies. Celle illustrant l’article du président Obama, par exemple, est un portrait officiel tout ce qu’il y a de posé et sérieux.

Mais les collections de photographies du gouvernement servent aussi aux contributeurs de Wikipédia. Ils espèrent y dénicher des images de rencontres entre célébrités et personnages politiques, qu’ils massacrent ensuite pour illustrer un article.

L’ancien roi du baseball, Hank Aaron, a l’honneur d’être illustré par une photo prise hors contexte, bizarrement découpée, prise en 1978 à la Maison Blanche. De même, l’illustration principale de l’article sur Michael Jackson a été réalisée en 1984 à l’occasion de sa visite à Ronald et Nancy Reagan.

Natalie Dessay - Alixkovich - CC by-saLes photos récentes sur Wikipédia sont, pour une large majorité, l’œuvre d’amateurs qui partagent volontiers leur travail. Amateur étant même un terme flatteur puisque ce sont plutôt des photos prises par des fans qui par chance avaient un appareil photo sous la main. La page de la cantatrice Natalie Dessay la montre en train de signer un autographe, fuyant l’objectif, l’actrice Allison Janney est masquée par des lunettes de soleil au Toronto Film Festival. Les frères Coen, Joel et Ethan, sont pris à distance moyenne à Cannes en 2001 et Ethan se couvre la bouche, certainement parce qu’il était en train de tousser. Et il y a aussi les photos prises depuis les tribunes où on distingue à peine le sujet. D’après sa photo, on pourrait croire que la star du baseball Barry Bonds est un joueur de champ extérieur. David Beckham, quant à lui, apparait les deux mains sur les hanches lors d’un match de football en 1999.

Placido Domingo- Sheila Rock - Copyright (with permission)Certaines personnes célèbres, comme Plácido Domingo et Oliver Stone, ont cependant eu la bonne idée de fournir elles-mêmes une photographie placée sous licence libre. Quand on pense à tout l’argent que les stars dépensent pour protéger leur image, il est étonnant de voir que si peu d’entre elles ont investi dans des photos de haute qualité, sous licence libre, pour Wikipédia ou d’autres sites. Peut-être ne se rendent-elles pas compte de la popularité de Wikipédia ? Rien que pour le mois de juin, par exemple, la page de Mlle Berry a reçu plus de 180 000 visites.

D’après Jerry Avenaim, photographe spécialisé dans les portraits de célébrités, il faut encore réussir à persuader les photographes, car placer une photo sous licence libre pourrait faire de l’ombre à toutes les autres. Il se démarque par le fait qu’il a déjà enrichi Wikipédia d’une douzaine de clichés en basse résolution, parmi lesquels un superbe portrait de Mark Harmon pris à l’origine pour un magazine télé.

Dans un interview, M. Avenaim semblait toujours indécis quant à l’idée de partager son travail. Sa démarche poursuit un double but : « D’abord, je voulais vraiment aider les célébrités que j’apprécie à apparaitre sous leur meilleur jour », dit-il, « Ensuite, c’est une stratégie marketing intéressante pour moi ».

Mark Harmon - Jerry Avenaim - CC by-saSa visibilité en ligne a largement augmenté grâce à la publication de ses œuvres sur Wikipédia, comme le montrent les résultats des moteurs de recherche ou la fréquentation de son site Web. Mais c’est une publicité qui peut aussi lui coûter très cher. « C’est mon gagne-pain », dit-il, rappelant que les photographes sont parfois très peu payés par les magazines pour leurs images de célébrités. L’essentiel de leurs revenus provient de la revente des images. Même si les images qu’il a mises gratuitement à disposition, par exemple le portrait de Dr. Phil, sont en basse résolution, elles deviennent les photographies par défaut sur Internet. Pourquoi payer alors pour une autre de ses photos ?

Et c’est bien là que la bât blesse pour les photographes qui voudraient mettre leurs œuvres à disposition sur Wikipédia, et seulement sur Wikipédia, pas sur tout Internet. « Wikipédia force à libérer le contenu déposé sur le site, c’est là que réside le problème à mes yeux », explique M. Avenaim. « S’ils veulent vraiment que la qualité des photos sur le site s’améliore, ils devrait permettre aux photographes de conserver leurs droits d’auteur. »

Notes

[1] Crédits photos : 1. George Clooney, par Bad Dog (domaine public) / 2. Halle Berry, par Nancy Smelser (domaine public) / 3. George Clooney, par Nando65 (domaine public)/ 4. Barack Obama, par Pete Souza (creative commons by) / 5. Natalie Dessay, par Alixkovich (creative commons by-sa) / 6. Placido Domingo, par Sheila Rock (copyright avec permission) / 7. Mark Harmon, par Jerry Avenaim (creative commons by-sa)




Si rien ne bouge en France dans les cinq ans je demande ma mutation à Genève

Broma - CC byCe billet souhaite avant tout saluer l’action du SEM qui, dans le cadre des MITIC, favorise les SOLL au sein du DIP. Gageons cependant que si vous n’êtes pas familier avec le système éducatif genevois, cette introduction risque de vous apparaitre bien énigmatique !

Le DIP, c’est le Département de l’Instruction Publique du Canton de Génève et le SEM, le Service Écoles-Médias chargé de la mise en œuvre de la politique du Département dans le domaine des Médias, de l’Image et des Technologies de l’Information et de la Communication, autrement dit les MITIC.

Mais l’acronyme le plus intéressant est sans conteste les SOLL puisqu’il s’agit rien moins que des Standards Ouverts et des Logiciels Libres.

En mars dernier en effet le SEM a élaboré un plan de déploiement 2009-2013 sur cinq ans des postes de travail pédagogiques (autrement dit les ordinateurs des élèves[1]) qui présente la particularité d’être peu ou prou… exactement ce qu’il nous faudrait à nous aussi en France ! Lecture chaudement recommandée.

L’objectif du présent plan de déploiement est de parvenir d’ici la rentrée 2013 à doter les écoles d’un poste de travail fonctionnant uniquement sous GNU/Linux, dans sa distribution Ubuntu.

Impressionnant non ! Proposez aujourd’hui la même chose de l’autres côté de la frontière et c’est le tremblement de terre (assorti d’une belle panique du côté des « enseignants innovants » de Projetice, du Café pédagogique et de Microsoft) !

Mais ainsi exposé, il y a un petit côté radical à nuancer :

Le solde constitue les exceptions pour lesquelles il n’aura pas été possible de trouver une solution ou pour lesquelles les systèmes propriétaires restent manifestement mieux adaptés au métier.

Et comment ne pas souscrire à ce qui suit (que je m’en vais de ce pas imprimer et encadrer dans ma chambre) :

Il s’agit en fait d’opérer un changement de paradigme : aujourd’hui, le standard est Windows, l’exception MacOS. Demain, le standard sera GNU/Linux, les exceptions MacOS et Windows.

Tout est dit ou presque. Ce n’est ni un désir, ni une prédiction, c’est à n’en pas douter le choix technologique d’avenir de nos écoles. Et plus tôt on prendra le train en marche, mieux ça vaudra.

Je n’ai pu résister à vous recopier intégralement la première page du plan tant elle est pertinente et pourrait se décliner partout où l’on analyse sérieusement la situation.

Depuis 2004, l’État de Genève a annoncé son intention d’orienter progressivement son informatique vers les standards ouverts et les logiciels libres (SOLL).

Cette décision est motivée par la prise de conscience que « l’information gérée par l’État est une ressource stratégique dont l’accessibilité par l’administration et les citoyens, la pérennité et la sécurité ne peuvent être garanties que par l’utilisation de standards ouverts et de logiciels dont le code source est public ».

Un intérêt économique est aussi présent : diminution des dépenses de licences bien sûr, mais également en favorisant les compétences et les services offerts par des sociétés locales plutôt que de financer de grands comptes internationaux.

Dans le domaine de l’informatique pédagogique, l’intérêt pour les SOLL est bien antérieur. En effet, les logiciels libres offrent pour l’éducation des avantages spécifiques, en plus des avantages communs à tous les secteurs de l’État. Ces logiciels permettent de donner gratuitement aux élèves les outils utilisés en classe et donc de favoriser le lien entre l’école et la maison ; ils offrent un apprentissage affranchi de la volonté des grands éditeurs de créer des utilisateurs captifs ; et la large communauté qui s’est développée autour des SOLL produit des solutions de qualité adaptées aux besoins de l’éducation.

La question des ressources pédagogiques est également au centre de cette problématique. S’appuyant sur le fonctionnement collaboratif propre au logiciel libre, il s’agit de mettre à disposition des enseignants et des élèves des environnements numériques technologiques performants à même de valoriser les contenus créés par les enseignants, de leur offrir la possibilité de les partager et de les échanger tout en protégeant les auteurs.

Conscient de ces enjeux, le DIP a validé en juin 2008 une directive formalisant sa décision « d’orienter résolument son informatique tant administrative que pédagogique vers des solutions libres et ouvertes ». La responsabilité de cette démarche a été confiée au SEM.

On peut toujours qualifier la Suisse de « neutre » et « conservatrice » mais certainement pas pour ce qui concerne les TICE du côté de Genève !

L’excellente directive dont il est question à la fin de l’extrait, nous en avions longuement parlé dans un billet dédié du Framablog. On notera qu’il est également questions des ressources pédagogiques, évoquées (malheureusement en creux) lors du billet L’académie en ligne ou la fausse modernité de l’Éducation nationale.

Vous me direz peut-être que cette belle intention ne se décrète pas. Et vous aurez raison ! Mais on en a pleinement conscience et c’est aussi pour cela qu’on se donne du temps, cinq ans, en commençant progressivement par quelques écoles pilotes.

Comme lors de tout changement, la transition vers un poste de travail logiciels libres va susciter des oppositions importantes, liées à des critères objectifs ou à des craintes non fondées. Pour assurer la réussite du projet, il conviendra donc d’identifier les risques et de mettre en œuvre les moyens de les réduire.

Les principaux risques identifiables dès maintenant sont les suivants :

– résistance au changement des utilisateurs parce que celui-ci demande un effort d’apprentissage et d’adaptation ;

– habitudes acquises lors de la formation (notamment universitaire) d’utiliser certains produits propriétaires, même si ceux-ci sont onéreux et parfois moins performants ou pratiques ;

– difficultés à récupérer les contenus déjà réalisés avec les nouveaux logiciels proposés ;

– difficultés à échanger les documents entre l’environnement mis à disposition par le DIP et les divers environnement acquis dans le domaine privé (même si les logiciels libres peuvent gratuitement être installés à domicile) ;

– ressources insuffisantes pour accompagner le changement et assurer une aide locale aux utilisateurs ;

– manque de clarté des objectifs de l’Etat dans le domaine des SOLL et impression que le DIP fait cavalier seul (ou, plus grave, renoncement de l’Etat à ses objectifs) ;

Et pour se donner le maximum de chances de franchir l’obstacle :

Dans la plupart des cas, la réponse aux préoccupations décrites passe par un effort d’information et de formation. Il faudra en particulier :

– rendre très clairement lisibles les objectifs de l’Etat et du DIP ;

– assurer lors de chaque migration une réelle plus-value pour les utilisateurs, soit pour la couverture des besoins, soit dans la mise à jour et la maintenance du poste, soit pour le support et la maintenance ou encore l’autoformation en ligne ;

– être en mesure d’apporter une aide spécifique, personnalisée, locale, efficace et rapide pour résoudre les problématiques soulevées.

Le plan décrit dans ce document est évolutif. Il pourra être adapté en fonction des opportunités ou difficultés rencontrées au sein du périmètre concerné, ou en fonction de l’évolution du contexte (politique des éditeurs de logiciels, modification des orientations globales de l’Etat, etc.).

Face à ce types d’initiatives, vous pouvez être certain que la politique de certains éditeurs, que l’on ne nommera pas, va évoluer, et évoluer dans le bon sens (ce n’est pas autrement que s’y prend le Becta en Angleterre).

Et pour conclure :

Le but visé par la transition vers les standards ouverts et les logiciels libres consiste en premier lieu à améliorer la qualité et la pérennité des outils informatiques mis à la disposition de l’enseignement.

Les avantages sont évidents dans une perspective globale. Vue du terrain, la réalité est nettement plus nuancée étant donné l’effort personnel que demande le changement d’habitudes et de moyens.

C’est la raison pour laquelle la compréhension par chacun des enjeux est essentielle, de même que la qualité de l’accompagnement qui devra soutenir la démarche.

Voilà une démarche que nous allons suivre de près.

Si vous voulez mon humble avis, on serait bien inspiré d’inviter nos amis du SEM au prochain Salon de l’Éducation à Paris, avec le secret espoir d’être remarqués par notre ministre et ses experts conseillers.

PS : La source de ce billet provient de l’article Écoles : l’informatique en logiciels libres du quotidien suisse indépendant Le Courrier, qui cite souvent le directeur du SEM Manuel Grandjean : « On ne va pas changer une Ferrari pour une 2CV juste parce qu’elle est open source » ou encore « Le travail d’enseignant intègre largement la collaboration et la mise en commun de ressources (…) On est véritablement dans une défense du bien commun ».

Notes

[1] Crédit photo : Broma (Creative Commons By)




Mésentente cordiale entre Stallman et le Parti Pirate suédois sur le logiciel libre

Mecredis - CC byPourquoi les propositions du Parti Pirate suédois sont paradoxalement susceptibles de se retourner contre le logiciel libre ?

C’est ce que nous relate Richard Stallman[1] dans un récent article traduit pas nos soins, où l’on s’apercevra que la réduction du copyright et la mise dans le domaine public ont peut-être plus d’inconvénients que d’avantages lorsqu’il s’agit du cas très particulier des logiciels libres.

Remarque : Cette traduction vous est proposée par Framalang dans le cadre d’une collaboration avec l’April (dont Cédric Corazza a assuré la relecture finale).

Pourquoi les propositions du Parti Pirate suédois se retournent contre le logiciel libre

How the Swedish Pirate Party Platform Backfires on Free Software
URL d’origine de la traduction

Richard Stallman – 24 juillet 2009 – GNU.org
(Traduction Framalang : Don Rico, Goofy et aKa)

La campagne de harcèlement à laquelle se livre l’industrie du copyright en Suède a conduit à la création du premier parti politique dont le programme vise à réduire les restrictions dues au copyright : le Parti Pirate. Parmi ses propositions, on trouve l’interdiction des DRM, la légalisation du partage à but non lucratif d’œuvres culturelles, et la réduction à une durée de cinq ans du copyright pour une utilisation commerciale. Cinq ans après sa publication, toute œuvre publiée passerait dans le domaine public.

Dans l’ensemble, je suis favorable à ces changements, mais l’ironie de la chose, c’est que ce choix particulier effectué par le Parti Pirate aurait un effet néfaste sur le logiciel libre. Je suis convaincu qu’ils n’avaient nulle intention de nuire au logiciel libre, mais c’est pourtant ce qui se produirait.

En effet, la GNU General Public License (NdT : ou licence GPL) et d’autres licences copyleft se servent du copyright pour défendre la liberté de tous les utilisateurs. La GPL permet à chacun de publier des programmes modifiés, mais à condition de garder la même licence. La redistribution d’un programme qui n’aurait pas été modifié doit elle aussi conserver la même licence. Et tous ceux qui redistribuent doivent donner aux utilisateurs l’accès au code source du logiciel.

Pourquoi les propositions du Parti Pirate suédois affecteraient-elles un logiciel libre placé sous copyleft ? Au bout de cinq ans, son code source passerait dans le domaine public, et les développeurs de logiciel privateur pourraient alors l’inclure dans leurs programmes. Mais qu’en est-il du cas inverse ?

Le logiciel privateur est soumis à des CLUF, pas seulement au copyright, et les utilisateurs n’en ont pas le code source. Même si le copyright permet le partage à but non commercial, il se peut que les CLUF, eux, l’interdisent. Qui plus est, les utilisateurs, n’ayant pas accès au code source, ne contrôlent pas les actions du programme lorsqu’ils l’exécutent. Exécuter un de ces programmes revient à abandonner votre liberté et à donner au développeur du pouvoir sur vous.

Que se passerait-il si le copyright de ce programme prenait fin au bout de cinq ans ? Cela n’obligerait en rien les développeurs à libérer le code source, et il y a fort à parier que la plupart ne le feront jamais. Les utilisateurs, que l’on privera toujours du code source, se verraient toujours dans l’impossibilité d’utiliser ce programme en toute liberté. Ce programme pourrait même contenir une « bombe à retardement » conçue pour empêcher son fonctionnement au bout de cinq ans, auquel cas les exemplaires passés dans le « domaine public » ne fonctionneraient tout simplement pas.

Ainsi, la proposition du Parti Pirate donnerait aux développeurs de logiciels privateurs la jouissance du code source protégé par la GPL, après cinq ans, mais elle ne permettrait pas aux développeurs de logiciel libre d’utiliser du code propriétaire, ni après cinq ans, ni même cinquante. Le monde du Libre ne récolterait donc que les inconvénients et aucun avantage. La différence entre code source et code objet, ainsi que la pratique des CLUF, permettraient bel et bien au logiciel privateur de déroger à la règle générale du copyright de cinq ans, ce dont ne pourrait profiter le logiciel libre.

Nous nous servons aussi du copyright pour atténuer en partie le danger que représentent les brevets logiciels. Nous ne pouvons en protéger complètement nos programmes, nul programme n’est à l’abri des brevets logiciels dans un pays où ils sont autorisés, mais au moins nous empêchons qu’on les utilise pour rendre le programme non-libre. Le Parti Pirate propose d’abolir les brevets logiciels, et si cela se produisait, ce problème ne se poserait plus. Mais en attendant, nous ne devons pas perdre notre seul moyen de protection contre les brevets.

Aussitôt après que le Parti Pirate a annoncé ses propositions, les développeurs de logiciel libre ont décelé cet effet secondaire et proposé qu’on établisse une règle à part pour le logiciel libre : on allongerait la durée du copyright pour le logiciel libre, de sorte que l’on puisse le garder sous licence copyleft. Cette exception explicite accordée au logiciel libre contrebalancerait l’exception de fait dont bénéficierait le logiciel privateur. Dix ans devraient suffire, à mon sens. Toutefois, cette proposition s’est heurtée à une forte résistance des dirigeants du Parti Pirate, qui refusent de faire un cas particulier en allongeant la durée du copyright.

Je pourrais approuver une loi par laquelle le code source d’un logiciel placé sous licence GPL passerait dans le domaine public au bout de cinq ans, à condition que cette loi ait le même effet sur le code source des logiciels privateurs. Car le copyleft n’est qu’un moyen pour atteindre une fin (la liberté de l’utilisateur), et pas une fin en soi. En outre, j’aimerais autant ne pas me faire le chantre d’un copyright plus fort.

J’ai donc proposé que le programme du Parti Pirate exige que le code source des logiciels privateurs soit déposé en main tierce dès la publication des binaires. Ce code source serait ensuite placé dans le domaine public au bout de cinq ans. Au lieu d’accorder au logiciel libre une exception officielle à la règle des cinq ans de copyright, ce système éliminerait l’exception officieuse dont bénéficierait le logiciel privateur. D’un côté comme de l’autre, le résultat est équitable.

Un partisan du Parti Pirate a proposé une variante plus large de ma première suggestion : une règle générale selon laquelle le copyright serait allongé à mesure que l’on accorde plus de liberté au public dans l’utilisation du programme. Cette solution présente l’avantage d’insérer le logiciel libre dans un mouvement collectif de copyright à durée variable au lieu de n’en faire qu’une exception isolée.

Je préfèrerais la solution de la main tierce, mais l’une ou l’autre de ces méthodes éviterait un retour de flamme, particulièrement nuisible au logiciel libre. Il existe sans doute d’autres solutions. Quoi qu’il en soit, le Parti Pirate suédois devrait éviter d’infliger un handicap à un mouvement spécifique lorsqu’il se propose de défendre la population contre les géants prédateurs.

Notes

[1] Crédit photo : Mecredis (Creative Commons By)