Je suis amoureux de Joss Stone !

Interrogée en 2008 par la chaîne de télévision argentine Todo Noticias sur ce qu’elle pensait du « piratage » de la musique sur Internet, la pétulante chanteuse Joss Stone a eu cette réponse pleine de naturel et spontanéité.

« La musique est faite pour être partagée », rien de plus simple et de plus vrai. Et pourtant certains ne l’entendent pas de cette oreille…

Cela méritait bien un petit sous-titrage maison signé Framalang 😉

PS : Drôlement pétillants ses yeux quand même…

—> La vidéo au format webm
—> Le fichier de sous-titres

Transcript du sous-titrage

URL d’origine du document

Le journaliste : Vous êtes chanteuse et faites partie du show-business maintenant, alors que pensez-vous du piratage de musique sur Internet ?

Joss Stone : Je trouve ça génial.

Le journaliste : Génial ?

Joss Stone : Oui, j’adore ça. Je trouve ça brillant et je vais vous dire pourquoi.

La musique devrait être partagée. Je crois que la musique est devenue un business dingue. La seule chose que je n’aime pas dans la musique, c’est le business qu’il y a autour. Par contre, si la musique est gratuite, il n’y a plus de business, seulement de la musique. Donc, j’aime ça. Je crois que nous devrions partager.

Si un seul l’achète, ça me convient. Gravez-le, partagez-le entre amis, je m’en fiche. Je me fiche du moyen de l’écouter, tant que vous l’écoutez. Tant que vous venez à mon concert, et que vous prenez du bon temps en y assistant, c’est parfait. Je m’en fiche. Je suis contente qu’ils l’écoutent.

Le journaliste : Je pense que vous êtes la première chanteuse à me répondre ça.

Joss Stone : Car la plupart des gens ont subi un… lavage de cerveau.




Internet favorise l’anglicisation, la robotisation et la globalisation du monde ?

Pink Sherbet Photography - CC byUne courte traduction à la sauce « Café Philo » qui n’est là que pour engager un petit débat avec vous dans les commentaires si vous le jugez opportun.

Anglicisation, machinisation et mondialisation sont ici trois arguments qui font dire à l’auteur qu’Internet est loin d’être neutre et nous oblige implicitement ou explicitement à adopter certaines valeurs, avec toutes les conséquences que cela implique[1].

Peut-être ne serez-vous pas d’accord ? Peut-être estimerez-vous que l’on enfonce des portes ouvertes ? Peut-être ajouterez-vous d’autres éléments à la liste ?

Les commentaires vous attendent, même si il est vrai que le débat s’est lui aussi déplacé, des forums et des blogs vers les Facebook et Twitter (et en se déplaçant il a changé de nature également).

Un billet à rapprocher par exemple des articles suivant du Framablog : Code is Law – Traduction française du célèbre article de Lawrence Lessig, Internet et Google vont-ils finir par nous abrutir ?, Quand Internet croit faire de la politique ou encore notre Tag sur Bernard Stiegler.

Utiliser Internet nous force-t-il à adhérer automatiquement à certaines valeurs ?

Does the use of the internet automatically force us to accept certain values?

Michel Bauwens – 19 janvier 2011 – P2P Foundation
(Traduction Framalang : Martin et Goofy)


Ci-dessous une intervention de Roberto Verzola, extraite de la liste de diffusion « p2p-foundation » :

« Je suis assez d’accord avec Doug Engelbart, l’inventeur de la souris, quand il dit que nous façonnons nos outils, et que nos outils nous façonnent à leur tour. Il parle d’une co-évolution de l’homme et de ses outils. Nous devrions peut-être appeler cela « un déterminisme réciproque ». Quand il dit « nous façonne », je suppose que le « nous » désigne aussi les relations sociales.

E.F. Schumacher (Small is Beautiful) va plus loin encore et je suis aussi entièrement d’accord avec lui. Il écrit (dans Work) que dès lors que nous adoptons une technologie (conçue par quelqu’un d’autre probablement), nous absorbons l’idéologie (une manière de voir les choses, un système de valeurs) qui va avec. Schumacher pensait que beaucoup de technologies venaient imprégnées d’idéologies, et que ceux qui pensaient pourvoir en importer une en refoulant l’idéologie qui va avec se trompent. Cette vision met sûrement plus l’accent sur le « déterminisme technologique » que celle de Engelbart, mais je pense tout de même que E.F. Schumacher a raison, du moins pour certaines technologies.

En fait, j’ai analysé Internet avec la perspective de Schumacher, et j’y ai trouvé quelques états d’esprit et systèmes de valeurs que ses utilisateurs sont obligés d’absorber, souvent sans en prendre conscience (pour avoir la liste entière suivre ce lien). Il me suffira d’en mentionner trois :

1. L’usage généralisé de l’anglais dans les technologies liées à Internet, jusqu’aux micro-codes des microprocesseurs, nous force à apprendre l’anglais. Et si vous apprenez la langue anglo-saxonne, vous allez sûrement acquérir certains goûts anglo-saxons. Apprendre la langue, c’est choisir la culture.

2. L’esprit de robotisation : remplacer les hommes par des machines. Cela prend du sens dans un pays riche en capital (même si ça se discute), mais beaucoup moins dans un pays où le travail prévaut. Quand nous remplaçons la force musculaire par celle des machines, nous sommes en moins bonne santé. Mais que va-t-il se passer si l’on substitue des machines au travail mental ?

3. Le parti pris implicite (en fait, une subvention) en faveur des acteurs globaux, et pour la mondialisation. C’est flagrant si l’on considère la struture des coûts sur Internet : un prix indépendant des distances. Un fichier de 1 Mo envoyé à un collègue utilisant le même fournisseur d’accès à Internet coûte le même prix qu’un fichier de taille équivalente envoyé à l’autre bout du globe. Pourtant le deuxième utilise bien plus de ressources réseau (serveurs, routeurs, bande passante, etc.) que le premier. Ainsi les utilisateurs locaux paient plus par unité de consommation de ressources que les utilisateurs globaux, ce qui est une subvention déguisée à la mondialisation intégrée à Internet tel qu’il est aujourd’hui.

Devons-nous pour autant rejeter cette technologie ? La réponse de Schumacher dans les années 1970 était une technologie intermédiaire/appropriée. Aujourd’hui, Schumacher reste pertinent, seul le vocabulaire a peut-être changé. J’ajouterais que nous devons aussi être impliqués dans la re-conception de la technologie. C’est pourquoi parler d’un Internet alternatif sur cette liste m’intéresse beaucoup.

Je ne voudrais pas m’attacher à priori à une conception figée, que ce soit celle des « choses » qui déterminent les relations sociales, ou celle des relations sociales qui déterminent les « choses ». Je voudrais explorer ces perspectives au cas par cas, et utiliser toute suggestion nouvelle et utile qui pourrait se présenter, qu’elle puisse venir de l’une ou de l’autre (ou des deux). »

Notes

[1] Crédit photo : Pink Sherbet Photography (Creative Commons By)




Ils sont devenus fous ou la simple mais affligeante histoire d’un étudiant allemand

Nate Bolt - CC by-saUn étudiant allemand cherche à consulter un article référencé sur Internet. Et le cauchemar commence…

On lui indique qu’il ne peut le faire que dans une bibliothèque (publique) ayant acquis les droits sur l’article en question[1].

Il se rend à cette bibliothèque mais il doit attendre car un autre lecteur est dessus et les droits stipulent qu’on ne peut lire l’article simultanément !

Un peu de patience, la place se libère et il peut enfin parcourir son article. Et là, nouvelle stupeur, impossible de sauvegarder, rechercher, ni même copier/coller tout ou partie de l’article !

C’est une histoire démente. C’est une histoire fictive qui se rapproche chaque jour un peu plus de la réalité. Je me demande même si elle n’existe pas déjà quelque part.

Bienvenue au XXIe siècle…

Ce (faux) témoignage est issu de l’excellent livre « Biens Communs – La Prospérité par le Partage » que nous avons évoqué dans un billet précédent. Il fait tristement écho à l’article Pour libérer les sciences de Christophe Masutti. On pourra également lire avec effroi la nouvelle prémonitoire de Richard Stallman rédigée en 1997 : « Le droit de lire ».

Comment ce qui n’est pas rare le devient – Dissertation d’un étudiant sur le droit d’auteur moderne

URL d’origine du document

Extrait du rapport de Silke Helfrich, Rainer Kuhlen, Wolfgang Sachs, Christian Siefkes
Publié en décembre 2009 par la Fondation Heinrich Böll
Traduit par Jeremy Marham et Olivier Petitjean (Ritimo.org)
Sous licence Creative Commons By-Sa

Devant rédiger un devoir sur les biens communs, j’ai effectué une recherche sur Internet, laquelle fut fructueuse. J’ai pu télécharger facilement plusieurs textes et en inclure certains passages appropriés dans mon brouillon. Jusqu’à ce que mon attention soit attirée par un texte intéressant, qui était payant, c’est-à-dire qu’il ne pouvait être lu que dans une bibliothèque qui en aurait acquis les droits.

« Aucun problème, me suis-je dit, la bibliothèque universitaire est reliée au net, et son catalogue est accessible en ligne. » Et, de fait, l’article dont j’avais trouvé la référence était indiqué comme « disponible sous format électronique ». Pourtant, lorsque je tentai de le télécharger, un message d’erreur s’afficha: « Cet article n’est consultable que dans l’espace de la bibliothèque. » Je restai sans voix. Pourquoi donc ?

Je pris donc le bus jusqu’à la bibliothèque nationale – un trajet d’une petite heure – et m’orientai jusqu’aux places réservées à la consultation d’Internet. Là encore, je trouvai dans le catalogue en ligne la référence de l’article recherché.

Mais un nouveau message s’afficha à l’écran: « Le recueil recherché est actuellement consulté par un autre utilisateur. La bibliothèque n’a fait l’acquisition que d’un seul recueil et ne peut, selon le principe d’accessoriété au fonds, permettre un accès simultané qu’à autant d’articles qu’elle détient de droits sur l’édition achetée. Nous ne voyons pas dans votre cas une exception à cette règle. » À nouveau, je restai sans voix.

Je n’ai pas compris le terme «accessoriété au fonds», mais j’ai compris ce qu’il signifiait : je devais attendre !

Mais pourquoi donc ? N’avais-je pourtant pas appris récemment dans un séminaire que les ressources électroniques peuvent faire l’objet d’une utilisation non rivale ? Mon utilisation ne porte pas atteinte à celle des autres. J’ai brusquement pris conscience de ce que signifiait le fait de rendre rares et exclusives des choses comme la lecture d’un texte, qui ne devraient pas l’être selon cette théorie.

Bon, un café ne me ferait pas de mal…et, après le café, la voie était enfin libre ! Comme de toute façon l’article était plutôt long, je décidai de le sauvegarder sur ma clé USB afin de pouvoir le relire plus attentivement. «Save as». Une troisième fois, je restai sans voix. Cette fois, le message m’apprit que le texte ne pouvait pas être sauvegardé.

Contraint par la force des choses, je commençai à lire le texte. Puis je décidai de rechercher les passages comprenant les termes « commons » et « bien commun », qui m’intéressaient plus particulièrement. Résultat : « Aucun passage trouvé ». Étrange, c’est pourtant le sujet de l’article ! Je testai avec un mot courant de tous les jours : « Aucun passage trouvé ». La fonction de recherche en plein texte ne fonctionnait pas.

À bout de nerfs, je décidai de ne copier qu’une seule phrase importante, que je souhaitais citer, dans le presse-papiers et de la coller ensuite sur ma clé. Encore une fois, un message d’erreur apparut, où je trouvai finalement l’indication décisive: « Il s’agit d’un PDF protégé par un système de gestion des droits numériques ou digital rights management (DRM). Tous les droits appartiennent à la maison d’édition. Vous ne pouvez lire l’article qu’à l’écran. Vous avez le droit de prendre des notes. »

Je ne m’attendais pas à une telle mesure technique de protection dans une bibliothèque publique. Pour moi, cela signifiait soit que je devais passer les deux heures suivantes devant l’écran pour prendre des notes, comme c’était l’usage à l’époque de Gutenberg, soit que je quittais la salle de lecture en décidant que l’article en question n’avait pas assez importance. Je rejetai d’emblée la troisième possibilité consistant à acheter l’article en ligne à l’éditeur pour 30 euros, d’autant que je n’aurais reçu, même dans ce cas, qu’une licence pour mon usage personnel sur mon propre ordinateur.

Ah oui, et le message d’erreur ajoutait que le système de DRM était « dans mon propre intérêt »…

J’ai renoncé à l’article, mais je voulais tout de même au moins savoir la raison de tout ceci. J’avais toujours associé les questions de droits d’auteur et de copyright aux débats sur l’utilisation de la musique, des vidéos, des jeux ou de la littérature de divertissement. Mais la recherche, l’enseignement, les études ? Je me rappelai alors l’article 5 de la Loi fondamentale allemande :

(1) Chacun a le droit d’exprimer et de diffuser librement son opinion par la parole, par l’écrit et par l’image, et de s’informer sans entraves aux sources qui sont accessibles à tous…

(3) L’art et la science, la recherche et l’enseignement sont libres…

Une bibliothèque publique, ayant fait l’acquisition contre paiement des ouvrages qui y sont disponibles, est accessible à tous, mais je n’y ai pas bénéficié d’un accès libre. Et aurais-je mal compris également le passage concernant la liberté de la science ?

J’appris par la suite, en évoquant cette expérience avec mon professeur, que les droits énumérés dans la Loi fondamentale et ceux qui sont explicitement formulés dans une loi avec des restrictions éventuelles sont deux choses totalement différentes. Mon cas tombait sous la juridiction du droit des auteurs, lequel protège avant tout l’auteur, ou celui qui aurait acquis les droits de celui-ci dans le but de publier et exploiter ses ouvrages.

Certes, il existe bien sûr, afin de garantir l’intérêt public, certaines limites aux droits des auteurs ou des exploitants, qui pourraient permettre l’utilisation pleine et entière de documents électroniques dans les bibliothèques sans avoir à en demander la permission aux ayant droits. Mais seulement lorsque le législateur en dispose ainsi !

Et pourquoi n’est-ce pas le cas en l’occurrence ? Mon professeur me renvoya au paragraphe 52b de la loi sur les droits d’auteur, qui réglemente la « consultation d’ouvrages au moyen de postes de lecture électroniques dans les bibliothèques … » J’y trouvai toutes les dispositions législatives qui m’avaient empêché de travailler à la bibliothèque comme je suis habitué à le faire avec Internet. À vrai dire, je ne comprends pas. Pourquoi nos parlementaires adoptent-ils une loi qui rend l’accès à l’information et au savoir pour les étudiants et les professeurs plus difficile qu’au temps de Gutenberg ? D’autant plus que ce savoir est généralement produit grâce à des financements publics. Il me semble que cela mériterait un recours pour inconstitutionnalité.

En tout cas, j’ai trouvé le sujet de mon devoir :

Ce qui est dans le domaine public ou ce qui est financé par les deniers publics doit rester accessible à tous.

Notes

[1] Crédit photo : Nate Bolt (Creative Commons By-Sa)




Wikipedia a 10 ans : Un petit bilan en compagnie de Wired et de Sue Gardner

Lane Hartwell - Wikimedia Commons - CC by-saUn nouvel élément à ajouter à notre série d’articles sur Wikipédia à l’occasion de la célébration de son dixième anniversaire.

Ici nous poursuivons avec Sue Gardner, la remarquable Executive Director de la Wikimedia Foundation, en procédant un peu à l’envers puisqu’après les perspectives vient le temps du bilan. On y évoque bien sûr la fiabilité mais aussi les récentes avancées, qui sont autant de projets, dans les milieux culturels et éducatifs.

Il est dit dans l’article que pour beaucoup de monde, Wikipedia concrétise à la perfection les premières promesses de l’Internet en proposant une « incarnation de ce que le Web peut offrir de mieux »[1]. Nous en faisons partie 😉

On y trouve également un passage qui devrait particulièrement intéresser les lecteurs du Framablog. Il s’agit d’une critique d’un ancien rédacteur en chef de l’encyclopédie Britannica. Vous me direz qu’il n’est pas forcément objectif mais l’argument avancé mérite à mon avis d’être commenté voire débattu :

« L’erreur fatale dans le modèle Wikipedia est qu’un article de l’encyclopédie est pensé comme étant un projet libre, comme ceux qui produisent du logiciel libre, et que comme eux, il sera transformé par des améliorations constantes pour atteindre un idéal. Mais le logiciel est clairement perçu comme étant en développement continu, et est sans arrêt testé avec l’aide de différents critères objectifs. L’article de Wikipédia, quant à lui, est publié et est accessible par tout le monde en l’état, il change pour le meilleur ou pour le pire de temps en temps, et n’est jaugé par aucun standard auquel l’utilisateur puisse se fier. »

Une décennie pour Wikipédia, le projet collaboratif emblématique

A decade of Wikipedia, the poster child for collaboration

Olivia Solon – 10 janvier 2011 -Wired UK
(Traduction Framalang : Goofy, Slystone, Marianne et Penguin)

À l’heure où Wikipédia fête son dixième anniversaire, Wired.co.uk s’entretient avec Sue Gardner, directrice de la Wikimedia Foundation, à propos du rôle de l’encyclopédie collaborative sur le Web et son plan de domination mondiale.

Wikipédia, beaucoup le considèrent encore comme un petit secret honteux. Un site que l’on consulte discrètement dès qu’une conversation au bureau dérive vers un domaine où l’on n’est pas spécialement à notre aise. Lorsqu’on y fait référence explicitement, c’est souvent en ajoutant bien vite qu’on connaît bien ses insuffisances. Nous avons tous l’habitude des sous-entendus sarcastiques qui accompagnent la phrase rituelle : « Si c’est dans Wikipédia, c’est que ça doit être vrai ». Mais ces sous-entendus ironiques se dissipent peu à peu à mesure que le système s’améliore et que consulter le site devient moins honteux et moins un secret chaque jour.

Exactement 10 ans après son lancement et 17 millions d’articles plus tard, la figure emblématique des projets collaboratifs fait désormais partie de la vie quotidienne du monde développé, avec de sérieuses percées en cours dans le reste du monde.

La personne chargée de mener à bien le développement de Wikipédia, c’est Sue Gardner, directrice de la Wikimédia Foundation. Ex-journaliste combative et directrice de CBC.ca, Mme Gardner a été recrutée en 2007 dans le but de développer une stratégie claire pour l’organisation à but non lucratif. Son principal défi était de s’assurer que la gigantesque communauté disparate de contributeurs du monde entier était bien en phase avec l’objectif commun. Selon le fondateur de Wikipédia Jimmy Wales, engager Mme Gardner a été « une des meilleures décisions que nous ayons prises ».

Les chiffres en témoignent : depuis l’embauche de cette brillante canadienne, les revenus ont en effet plus que triplé, et l’audience du site a augmenté de 85 %. Après une lecture approfondie des sources de revenus de la fondation et deux ans d’expériences diverses, elle s’est rendue compte que la meilleure stratégie consistait à cibler les dons privés d’un faible montant.

« Dans un monde à but non lucratif, on poursuit normalement deux objectifs bien distincts, la prise en charge des frais de service, et la production de revenus. Ces deux composantes sont généralement en déséquilibre. La plus grosse surprise en ce qui me concerne fut de découvrir que l’on pouvait harmoniser l’ensemble de manière à ce que les dons proviennent des mêmes personnes que celles à qui nous fournissons un service. »


En tant que cinquième site le plus visité dans le monde, son hébergement sur serveur a un coût conséquent. L’organisation à but non lucratif lance chaque année une opération de levée de fonds afin d’assurer le fonctionnement du site pour l’année suivante. La dernière campagne vient juste de se terminer, elle s’est soldée par la récolte de 16 millions de dollars donnés par 500 000 personnes.

Pour beaucoup de monde, Wikipedia concrétise à la perfection la vision des premières promesses de l’internet. Gardner s’aventure même à dire que c’est « l’incarnation de ce que le Web peut faire de mieux. »

« C’est la promesse que les gens vont travailler ensemble, c’est l’illustration de gens travaillant ensemble en confiance, c’est la démocratisation de l’information et de la liberté d’accès à l’information, malgré les nombreux et récurrents dangers qui la menacent. »

Joseph Reagle, auteur du livre The Good Faith Collaboration (NdT : La collaboration de bonne foi), et ancien étudiant à Harvard ajoute : « par défaut, l’interaction en ligne est faite pour ceux qui refusent de voir le pire chez les autres, même chez les nazis comme l’indique la loi de Godwin. Wikipedia au contraire, promeut et est dépendant de personnes collaborant ensemble en toute bonne foi. »

Quelles en sont les points faibles ? Gardner ne fait pas preuve de réserve : « c’est un travail qui progresse sans arrêt, on aura donc toujours besoin de faire mieux. Tous les aspects doivent être améliorés. »

Tandis que Wikipedia se concentre sur l’amélioration et l’expansion, le site est sous un feu constant de critiques de personnes qui l’accusent de ne pas être objectif, de ne pas être fiable, et de préférer, au cours du processus d’édition, le consensus plutôt que le mérite et les qualifications.

Robert McHenry, auteur et ancien rédacteur en chef de l’encyclopédie Britannica, résume ce qu’il décrit comme l’erreur fatale du modèle Wikipedia :

« L’erreur fatale dans le modèle Wikipedia est qu’un article de l’encyclopédie est pensé comme étant un projet libre, comme ceux qui produisent du logiciel libre, et que comme eux, il sera transformé par des améliorations constantes pour atteindre un idéal. Mais le logiciel est clairement perçu comme étant en développement continu, et est sans arrêt testé avec l’aide de différents critères objectifs. L’article de Wikipédia, quant à lui, est publié et est accessible par tout le monde en l’état, il change pour le meilleur ou pour le pire de temps en temps, et n’est jaugé par aucun standard auquel l’utilisateur puisse se fier. »

Il n’a certainement pas tort, il y a beaucoup d’exemples d’informations fausses, parfois diffamatoires, qui sont par exemple écrites sur des profils biographiques. Ainsi en 2005, John Seigenthaler Sr, assistant du ministre de la justice Robert Kennedy au début des années 60, journaliste reconnu et plus tard éditeur créateur de USA Today, fut la cible de vandalisme sur Wikipedia. Une fausse biographie de Wikipedia l’accusa d’être un suspect du meurtre de Kennedy. Et la notice resta en l’étant pendant 132 jours. Ceci illustre le biais systémique qui fait que les événements contemporains attirent bien plus l’attention (et le manque d’objectivité lié à l’absence de sources et de recul) que les événements plus anciens, et la culture pop bénéficie à ce titre d’une couverture disproportionnée.

Cela ne veut pas dire que les encyclopédies traditionnelles sont dépourvues d’erreurs. Il y a eu une série d’études comparant la fiabilité de Wikipedia avec d’autres encyclopédies (telle que l’enquête réalisée par Nature en 2006 comparant Wikipedia et Britannica), qui ont montré que la fiabilité de Wikipedia est en hausse. L’étude de Nature précitée révèle que les articles scientifiques de Wikipedia s’approchent du niveau d’exactitude de l’encyclopédie Britannica, et avait un taux équivalent « d’erreurs sérieuses ».

Gardner le concède : « En 2001, Wikipedia n’était pas une source d’information riche et complète, c’était très partiel. Mais chaque année et chaque jour, Wikipedia s’améliore. »

Elle décrit un changement d’attidude et de comportement dans le monde académique et les communautés culturelles. L’initiative GLAM (Galleries, Libraries, Archives, Museums) rapproche les utilisateurs de Wikipedia des membres des instituts culturels, y compris le British Museum, dans le but d’une part d’améliorer le contenu culturel de Wikipedia et d’autre part d’offrir aux institutions un espace pour exposer leurs collections.

Un événement à Londres en novembre dernier a réuni les représentants de quelques grands organismes culturels, afin de voir ensemble comment ils pouvaient contribuer davantage à Wikipedia (NdT : Un évènement similaire a également eu lieu en France).

Gardner dit : « c’était vraiment encourageant de voir les gardiens de la culture et du savoir considérer Wikipedia de plus en plus sérieusement. Cela ne serait pas arrivé cinq ans aupravant. »

Parallèlement s’est ouvert un programme de sensibilisation destiné au monde académique dans le but de contribuer à améliorer le contenu. Le Wikipedia Ambassador Program qui a débuté en 2010 implique et accompagne les enseignants qui veulent participer à Wikipedia à travers leurs cours. L’idée est d’agrandir la communauté des éditeurs tout en aidant les enseignants à avoir une utilisation plus aisée de Wikipedia.

Quand on lui demande si Wikipedia pourrait un jour être considéré comme une source crédible dans le monde académique, Gardner dit : « nous ne recommandons pas que les gens utilisent Wikipedia pour faire des citations dans leur travail, de même que nous ne recommandons pas qu’ils utilisent l’encyclopédie Britannica. Le but d’une encyclopédie est d’être un point de départ pour faire de la recherche. Vous pouvez apprendre les bases, et approfondir la lecture de l’article en regardant les références pour trouver et y suivre les sources originales. »

L’argument de la fiabilité, selon Gardner, passe à côté de la « véritable histoire » : l’accès à l’information a augmenté selon une courbe exponentielle. « Pour le lecteur d’information, le monde est radicalement meilleur qu’il ne l’était il y a 10 ans ou 20 ans. »

Quiconque âgé de plus de 20 ans se souvient du temps où, pour trouver des informations sur un obscur politicien, un artiste underground ou la dernière action militaire d’un pays en particulier, il fallait consulter une encyclopédie en 30 volumes, aller à la bibliothèque ou espérer qu’un adulte autour de vous ait la réponse.

Ayant épuisé ces possibilités, on s’était habitué au fait qu’on ne saurait probablement jamais. Ou en tout cas pas avant la sortie de la prochaine édition de l’encyclopédie et, même dans ce cas, sans la certitude que la question y serait traitée.

Aujourd’hui, tout le monde peut avoir un accés instantané et gratuit à la connaisance collective de centaines de milliers de personnes, mise à jour quotidiennement, et même, la plupart du temps, presque en temps réel. Dans ce contexte, le débat sur la fiabilité perd de son importance.

Notes

[1] Crédit photo : Lane Hartwell (Creative Commons By-Sa)




Les 10 ans de Wikipédia : une occasion médiatique manquée pour le logiciel libre ?

Wikimedia Italia - CC by-saWikipédia célèbre ses dix ans et je me réjouis bien entendu d’observer que l’évènement bénéficie légitimement d’une large couverture médiatique.

En quantité mais aussi et surtout en qualité, car il semble définitivement révolu le temps de l’incompréhension voire d’une certaine hostilité de la grande presse vis-à-vis de l’encyclopédie. Avoir des articles dédiés (et éclairés) dans les versions papiers du Monde ou de Libération permet aussi de mesurer le chemin parcouru[1].

Vous me voyez cependant contraint ici de faire, l’espace d’un court instant, mon schtroumpf grognon au milieu du concert de louanges. Parce que lorsque l’on regarde un peu dans le détail la revue de presse francophone occasionnée par cette date anniversaire, on constate que le logiciel libre est totalement occulté.

Vous me direz que ce n’est ni le sujet, ni le lieu, ni le moment. Vous me direz qu’il est normal que les journalistes adoptent l’angle de l’interview des fondateurs, du témoignage de collaborateurs, ou du « Wikipédia, comment ça marche ? » (ou, mieux encore, « comment ça marche, alors que ça ne devrait pas marcher ! »). Vous me direz aussi que je pêche par égocentrisme libriste. Mais de là à ne jamais évoquer le logiciel libre…

Il est vrai aussi que cette affirmation péremptoire repose sur une méthode sujette à caution. J’ai ouvert à ce jour tous les articles francophones glanés sur le Web qui me semblaient parler des 10 ans de Wikipédia, en cherchant rapidement l’occurrence « libre » dans le corps du texte. Je suis parfois tombé sur « librement diffusable » ou « encyclopédie libre » mais jamais sur « logiciel(s) libre(s) » (ni « licence libre » d’ailleurs).

À une exception près, l’article du Monde (odieusement pompé ici) où l’on peut lire ceci :

Un projet un peu fou : concevoir une encyclopédie en ligne, gratuite, rédigée par des internautes, à laquelle tous, experts ou néophytes, pourraient contribuer, en créant, complétant ou corrigeant les articles grâce à un outil inspiré des logiciels libres, le « wiki  », permettant un travail collaboratif.

Oui, bien sûr, Wikipédia repose sur le logiciel libre Mediawiki, mais ce n’est pas, loin de là, le seul point commun et la seule filiation possible.

« Au commencement était Nupedia… », nous rapelle 01net. Tandis que Jimmy Wales soigne sa légende dans cette vidéo : « J’ai écrit Hello World et j’ai invité les gens à participer ». Factuellement parlant, c’est certainement bien là le début de cette extraordinaire aventure.

Mais cela n’aurait été ni scandaleux ni inopportun de remonter encore un peu plus loin, de remonter aux sources – si j’ose dire – en affirmant, pourquoi pas, que : « Au commencement était le logiciel libre… » (ceci dit, je vous l’accorde, au commencement était Internet aussi !).

Je ne prétends évidemment pas que Wikipédia n’aurait jamais existé sans le logiciel libre. Mais il est indéniable que son expérience, ses méthodes, ses outils (techniques et juridiques), ses combats (contre le copyright, les formats fermés, etc.) lui ont profité et ont participé à son succès. Dans un contexte historique où l’on dresse des bilans et expose la genèse, c’est dommage de ne pas l’avoir cité au moins une seule fois, cela aurait pu mettre la puce à l’oreille à de nombreux lecteurs lambdas.

La présidente de Wikimedia Fance, Adrienne Alix, a eu la bonne idée de récolter les témoignages de quelques pionniers présents aux tous débuts du projet. Morceaux choisis :

« À l’époque, on était en plein dans le haut de la vague du mouvement open source, et cette communauté de bénévoles créant une encyclopédie libre correspondait parfaitement à l’esprit de ce mouvement open source. » (Buzz)

« Wikipédia faisait déjà sensation dans le milieu Libre, projet titanesque qui faisait des petits dans le monde entier. » (Bobby)

« Wikipédia n’était à l’époque pas très connue du grand public mais on en parlait beaucoup dans le milieu du logiciel libre (…) C’est l’idée de transposer les concepts du logiciel libre à d’autres domaines, en dehors de l’informatique, que je trouvais séduisante. » (Polletfa)

« Le mouvement du logiciel libre partage lui aussi des connaissances, il manquait un outil pour le savoir d’une manière générale. » (Hashar)

« Venant du logiciel libre et du monde de l’informatique, j’étais idéologiquement et pratiquement prédisposé à aimer Wikipedia. Trouver Wikipédia formidable allait donc de soi pour moi (…) Je me suis investi plus car j’y ai vu rapidement la promesse de voir les principes du logiciel libre dépasser le cadre de l’informatique (…) La motivation était donc avant tout politique. » (Kelson)

« A la fois partager mes connaissances mais aussi encourager l’esprit du libre, du gratuit, par opposition à la logique financière. Je suis, bien évidemment, un grand défenseur des logiciels libres, et de la libre diffusion de la culture et de l’information. Les droits d’auteur sont une notion dépassée et surclassée par les technologie de l’information ! » (Tonnelier)

Je précise que nous ne sommes pas le seuls à souligner cette filiation, puisque même l’article Wikipédia de Wikipédia le dit 😉

Wikipédia vise à être une encyclopédie libre, ce qui signifie que chacun est libre de recopier l’encyclopédie, de la modifier et de la redistribuer. Cette notion de contenu libre découle de celle de logiciel libre, formulée avant Wikipédia par la Free Software Foundation.

Par ses objectifs et son fonctionnement, le projet Wikipédia s’inscrit dans une série de filiations culturelles dont le concept du copyleft, inventé par Don Hopkins et popularisé par Richard Stallman de la Free Software Foundation, par lequel un auteur autorise tout utilisateur à copier, modifier et distribuer son œuvre, mais aux mêmes conditions d’utilisation, y compris dans les versions modifiées ou étendues, ainsi que la pratique du travail collaboratif sur Internet, développé notamment chez les informaticiens par les adeptes du logiciel libre.

Qu’un journaliste ait bien compris ce lien fort entre Wikipédia et logiciel libre mais l’ait ignoré par manque de place ou parce qu’il le jugeait secondaire, cela m’attriste mais c’est son choix au demeurant tout à fait respectable. Mais Il y a une autre hypothèse, celle du journaliste non informé sur qui l’on ne risque pas encore de pouvoir compter.

Ni sentiment d’ingratitude, et encore moins de jalousie, juste une pointe de frustration pour ceux qui, comme moi, travaillent à faire la promotion du logiciel libre en France et en Navarre. Sur ce, pas de quoi en faire un fromage, et je m’en retourne faire la fête avec mes amis wikipédiens 😉

Avant je disais : « Wikipédia, c’est comme un logiciel libre mais pour les encyclopédies ». Désormais je vais privilégier la formule : « Un logiciel libre, c’est comme Wikipédia mais pour les logiciels ».

Notes

[1] Crédit photo : Wikimedia Italia (Creative Commons By) – « Tieni accesa Wikipedia » – Il est remarquable de constater que les trams du centre ville de Milan ont participé à la campagne de dons en offrant des tarifs préférentiels à l’association Wikimedia Italia.




Pourquoi plus de dix ans de retard pour l’informatique à l’école ?

QThomas Bower - CC by-saAuriez-vous deviné que l’article que nous vous proposons aujourd’hui date de 1998 ? Oui car il est question de francs et non d’euros, mais sinon force est de constater qu’il est toujours d’actualité.

On pourrait même ajouter qu’il est malheureusement toujours d’actualité car les arguments avancés restent pertinents alors que, douze ans plus tard, les solutions envisagées n’ont toujours pas été prises. Et il est alors légitime de se demander pourquoi, et qui a et a eu intérêt à ce qu’il soit urgent de ne rien faire.

J’ai donc voulu profiter du fait que le Framablog est relativement bien intégré dans la sphère des blogs et autres réseaux sociaux pour le sortir de sa naphtaline et vous le faire partager. Nous devons cet article à Bernard Lang, directeur de recherche à l’Inria et membre fondateur de l’AFUL.

Le sujet de la place de l’informatique à l’école est un sujet qui semble a priori un peu à la marge des logiciels libres. Il n’en est rien pourtant. Et c’est pourquoi nous publions régulièrement des articles sur ce thème, en soutenant le travail, enfin proche d’aboutir, de Jean-Pierre Archambault et d’autres, au sein notamment de l’EPI et de l’ASTI :

C’est aussi pourquoi notre collection de livres libres Framabook accueille des titres comme Le C en 20 heurs ou Tout ce que vous avez toujours voulu savoir sur Unix sans jamais oser le demander.

Il ne s’agit pas de faire de tout citoyen un programmeur chevronné. Mais logiciels (libres ou pas), données (personnelles ou pas), réseaux, Cloud Computing, Internet (filtrage, neutralité), Hadopi, Acta, Loppsi, Facebook, Microsoft, Apple, Google, Wikileaks, Anonymous… comment comprendre et appréhender au mieux ce nouveau monde si l’on n’a pas un minimum de culture informatique ?

Parce que dans le cas contraire, on se met alors tranquillement à accepter, pour ne pas dire applaudir, l’entrée des iPad dans nos écoles, ce qui devrait d’ailleurs être le sujet de mon prochain billet[1].

L’Informatique : Science, Techniques et Outils

URL d’origine du document

Bernard Lang (INRIA) – décembre 1998

(Présenté à LexiPraxi 98, journée de réflexion sur le theme «Former des citoyens pour maîtriser la société de l’information», organisée le 9 décembre 1998 à la Maison de l’Europe (Paris) par l’AILF. L’auteur remercie Pierre Weis pour sa relecture et ses nombreux commentaires.)

« Le développement extrêmement rapide des technologies de l’information et de la communication ouvre un formidable potentiel de croissance et de création d’emplois, mêlant des enjeux industriels, économiques et sociaux considérables. Ces technologies constituent le premier secteur économique des prochaines années… » (Bernard Larrouturou – L’INRIA dans dix ans – 1997)

Devant une telle analyse, devant l’importance de l’enjeu, l’on imagine aisément que l’une des premières choses à faire est de développer les sciences de l’information dans l’enseignement, afin de préparer les élèves aux défis du prochain siècle. C’est effectivement ce qui se passe, et l’on voit les USA dépenser des sommes de l’ordre de 100 milliards de francs par an pour l’informatisation des écoles. Sans être du même ordre, les efforts consentis par la France dans ce domaine sont également considérables. Et pourtant, selon un article de Todd Oppenheimer, The Computer Delusion, paru dans la revue Atlantic Monthly en Juillet 1997, l’introduction de l’informatique dans les établissements scolaires est loin de donner les résultats que l’on pourrait attendre de tels investissements, et l’on peut légitimement se demander si des investissements moindres, mais autrement employés, ne donneraient pas de meilleurs résultats.

Où est l’erreur ?

L’une des premières remarques que l’on peut faire est que les plus ardents promoteurs de l’informatique à l’école sont les constructeurs de machines, et surtout les éditeurs de logiciels. Il s’agit donc de promotion corporatiste et commerciale, d’habituer les familles et les futurs consommateurs à ces produits, de capturer des marchés, bien plus que d’améliorer le système éducatif. À cet égard l’Union Européenne n’est pas en reste. Si l’on analyse une document comme le Rapport de la Task force Logiciels éducatifs et Multimédia de la Commission Européenne, on constate que la Commission est bien plus préoccupée de développer des marchés lucratifs que d’améliorer le système éducatif. Devant cet assaut mercantile, beaucoup de voix s’élèvent contre l’introduction excessive, trop vite planifiée et mal analysée de l’informatique à l’école, en se demandant si l’utilité pédagogique en est réelle, si l’on n’est pas en train d’appauvrir le système éducatif, que ce soit par le choix d’innovations faussement pédagogiques, ou simplement par une mauvaise évaluation des priorités d’investissement.

Nullement compétent en matière de théorie pédagogique, je me garderai bien de trancher dans un sens ou un autre. Force est cependant de constater qu’il est clair que les nouveaux outils informatiques ont déjà montré qu’ils pouvaient, au moins dans certaines circonstances, apporter un plus pédagogique. Mais de là à faire un investissement massif, sur des ressources chères, sans analyse sérieuse des différentes alternatives, sans expérimentation sur le long terme, simplement sous la pression des marchés et des média, est-ce bien raisonnable ?

Mais là n’est pas l’essentiel de notre propos. Car nous avons parlé de pédagogie, alors que les enjeux du prochain siècle sont d’abord, nous le disions, dans la maîtrise des nouvelles technologies, et au moins autant dans la maîtrise d’une transformation radicale de notre environnement due à l’utilisation massive des ressources informationnelles, en particulier grâce à l’Internet. Mais cet aspect des choses est curieusement très largement ignoré dans l’évolution de nos programmes éducatifs. L’attention se focalise trop sur l’informatique comme support de la pédagogie, au sens le plus traditionnel du terme (même si les techniques sont très nouvelles dans certains cas), et l’on ignore assez systématiquement l’informatique en tant que discipline d’enseignement, l’informatique comme sujet d’étude.

A cette distinction évidemment essentielle, il convient d’ajouter une troisième catégorie, l’informatique comme outil dans l’enseignement. Je pense en particulier à l’intrusion d’outils, d’intermédiaires informatiques, dans certaines disciplines. Sans vouloir m’étendre sur ce sujet, qui relève également de la pédagogie, on peut se demander si la trop grande présence de médiations informatiques, par exemple dans la conduite d’expériences de physique, n’introduit pas une trop grande distanciation par rapport à l’objet étudié. L’élève ne risque-t-il pas de prendre l’habitude de faire plus confiance à ce que lui dit l’ordinateur qu’à ses sens, son esprit critique, ses facultés d’analyse. Combien d’élèves sont déjà totalement dépendants de leur calculette, et incapable d’un calcul mental simple sur des ordres de grandeur sans vérifier immédiatement sur l’écran magique. On retrouve ce problème dans l’enseignement de l’informatique elle-même, quand l’apprentissage passif des outils se fait dans l’ignorance de toute compréhension des mécanismes, même les plus simples, qu’ils mettent en jeu.

Si les enjeux réels sont dans la maîtrise des sciences de l’information, ce sont ces sciences, et en particulier l’informatique, qu’il faut enseigner en tant que discipline scientifique.

Mais comme beaucoup d’autres disciplines, l’informatique a de multiples facettes, science théorique et expérimentale objet de recherches d’une grande diversité, technologie donnant lieu à une activité industrielle considérable, et ensemble d’outils des plus en plus intégrés à notre vie quotidienne, familiale ou professionnelle. Probablement en raison de la jeunesse de cette discipline, et précisément à cause de son manque actuel d’intégration dans le cursus scolaire, la distinction entre ces aspects complémentaires, mais indissociables, n’est pas faite dans les esprits. Beaucoup en sont encore à confondre les aspects fondamentaux et pérennes avec leur expression actuelle dans des outils destinés à évoluer rapidement. Comme mes collègues et moi-même l’écrivions dans Le Monde, les disciplines plus anciennes distinguent sans problème ces trois composantes, et nul ne confond la thermodynamique, la technologie des moteurs à explosion et le mode d’emploi d’un véhicule automobile. Cette confusion, encore présente dans le cas de l’informatique, est en outre renforcée par le fait que chacun pouvant s’essayer assez facilement à certains de ses aspects originaux, comme la programmation sur des problèmes simples, on a l’illusion que c’est une discipline facile à maîtriser et sans réelle profondeur. Mais en fait cela revient à se prétendre spécialiste du génie civil et de la résistance des matériaux parce que l’on sait établir un pont en jetant une planche sur un ruisseau.

Pour en revenir à l’enseignement des outils fondés sur l’informatique, et non des outils de l’informatique, il est malheureusement fréquent de voir appeler cours d’informatique un enseignement qui se fonde uniquement sur l’apprentissage de la mise en marche d’un ordinateur, et sur l’utilisation de quelques outils de bureautique. Mais c’est là un cours de bureautique, et non d’informatique, aussi bien que d’apprendre à conduire et à remplir le réservoir de sa voiture ne saurait constituer un cours de thermodynamique, ni même de technologie automobile. C’est utile, certes, dans la vie courante, mais ce n’est aucunement formateur pour l’esprit des élèves. De plus, la technologie informatique étant en évolution rapide, la pérennité de cet enseignement est très aléatoire, d’autant plus que le manque de variété des outils utilisés prive les élèves de toute espèce de recul par rapport à ces outils.

Mais le problème est à mon sens beaucoup plus grave en ce qui concerne l’enseignement de la technologie informatique, que ce soit à l’école ou à l’université. Cette technologie est complexe, en évolution permanente, et très largement contrôlée par l’industrie informatique et notamment les grands éditeurs. Or l’on constate que trop souvent, cet enseignement consiste plus à apprendre à se servir des réalisations technologiques de ces éditeurs qu’à en comprendre les principes, à savoir les critiquer, à savoir les comparer avec d’autres approches, commerciales ou non. Sous le pretexte fallacieux de préparer les étudiant à la vie active, en fait aux besoins les plus immédiats de leurs futurs employeurs, on fait passer pour formations universitaires ce qui n’est que formations kleenex, destinées à devenir obsolètes aussi vite que les produits (souvent déjà obsolètes par rapport à l’état de l’art) sur lesquels elles se fondent. Manquant de profondeur, ces formations ne sauraient être durables, et c’est ainsi que le système éducatif prépare de futur chomeurs et la pénurie de professionnels compétents pour notre industrie. Une bonne façon de garantir la qualité et la pérennité d’un enseignement – et de former l’esprit critique des élèves – c’est de toujours l’asseoir sur une assez large variété d’exemples, que l’on peut comparer et opposer pour en extraire les aspects les plus essentiels, en évitant de se cantonner à l’apprentissage d’un seul type de solutions techniques.

Une première étape en ce sens consisterait à se départir du totalitarisme actuel, en matière de systèmes d’exploitation, de réseaux et de solutions bureautiques notamment, et à faire pénétrer une plus grande diversité de logiciels dans le système éducatif. Il est vrai que la gestion de la diversité a un coût, mais le bénéfice pédagogique le justifie. En outre, il ne faut pas oublier que l’enseignement public a un devoir de laïcité, d’indépendance, et qu’il est donc impératif qu’il évite de se faire le champion d’une marque, d’un produit ou d’une école de pensée. Enfin, il ne faut pas oublier non plus que la diversité est aussi un facteur de progrès et de stabilité « écologique » qui sont essentiels pour le développement d’un secteur technologique. Introduire cette diversité à l’école, quoi que puissent en dire des entreprises qui vivent par nécessité avec un horizon à six mois, c’est aussi garantir un meilleur équilibre futur de notre économie.

Si l’informatique est enseignée comme science fondamentale à l’université, au moins dans les enseignements les plus avancés, cet aspect n’est ni abordé ni même évoqué au niveau de l’enseignement général. Cela ne peut que renforcer une attitude de passivité vis à vis de ce qui apparaît alors comme une technologie ancillaire, ne méritant pas que l’on s’attarde sur son influence croissante, sur le pouvoir qu’elle s’octroie dans toutes nos activitées. Ainsi une meilleure compréhension du rôle fondamental des mécanismes de représentation et d’échange des données nous rendraient certainement plus sensibles à cette forme de dépendance qui s’établit insidieusement dans notre société quand tous nos modes de gestion et de communication de l’information sont peu à peu entièrement contrôlés par des entreprises privées, dont les seuls objectifs sont de nature mercantile.

Outre que l’informatique a ses propres problèmes, sa propre façon de les traiter, ses propres résultats fondamentaux, elle est intéressante du point de vue de l’enseignement général parce que c’est une science carrefour. Il y a bien sûr des aspects classiquement scientifiques dans l’informatique, mais en plus, par les concepts qu’elle met en oeuvre, elle se rapproche d’autres disciplines littéraires. Par exemple, en informatique, les notions de langage, de syntaxe et de sémantique sont très importantes. Dans l’enseignement actuel, ces concepts relèvent du français ou de la philo… et voilà que l’on peut les illustrer de façon plus concrète – peut-être imparfaite car trop formalisée et mécanique, mais ce défaut-même est source de considérations enrichissantes – par des exemples opérationnels, presques tangibles. À côté de cela, on y rencontre des problèmes de logique, des questions strictement mathématiques, des problématiques apparentées à la physique la plus théorique… On peut donc y trouver matière à discuter de nombreux concepts qui sont aussi pertinents dans d’autres domaines, et donc à éventuellement réduire la dichotomie qui est souvent perçue entre les sciences et les humanités. C’est une situation assez extraordinaire, un champ d’ouverture intellectuelle, dont il est vraiment dommage de ne pas profiter.

Tout n’est cependant pas négatif dans l’informatisation de notre enseignement. Le fort accent mis sur le développement de la connectivité avec l’Internet, bien que souvent décrié, est une avancée essentielle, et cela pour au moins deux raisons majeures.

La première de ces raisons est tout simplement que les élèves d’aujourd’hui seront appelé à vivre dans un monde où la maîtrise de l’information omniprésente sera un élement majeur de la vie sociale. À bien des égards, celui qui ne saura pas gérer cet espace de données, de connaissances et de communication sera dans une situation de dépendance analogue à ceux qui, aujourd’hui, ne savent pas lire, ne savent pas trouver leur chemin sur une carte ou remplir un formulaire. « Apprendre l’Internet », c’est apprendre à vivre dans la société de demain.

La deuxième raison est sans doute encore plus fondamentale pour l’éducation citoyenne. Même sans l’informatique, notre monde a atteint une complexité extrème où les citoyens ont de moins en moins leur mot à dire, où même les pouvoirs politiques sont de plus en plus impuissants devant la complexification des structures économiques et sociales et surtout la mondialisation généralisée. Pour ne prendre qu’un exemple, majeur, les entreprises ont acquis une existence autonome, fortes de leur puissance économique et de leurs dispersion géographique, dans un système où les êtres humains, clients, employés, dirigeants ou actionnaires, ne sont plus que des pions sans aucun pouvoir indépendant. Elles en sont au point où elles disputent leur pouvoir aux nations, aux représentant élus de la population. Face à une situation où la place même de l’homme sur cette planète est radicalement remise en cause, il est nécessaire de trouver de nouvelles structures, de nouveaux modes d’échange, de communication et d’organisation qui permettent au citoyen de retrouver la place qui lui revient dans une société devenue mondiale. Et cela est possible, grâce à l’Internet, à condition d’apprendre à en maîtriser les ressources, à comprendre, voire à tolérer – ce qui n’est pas toujours facile – les points de vues d’autres cultures maintenant à notre porte, à communiquer, à partager et à coopérer avec les autres citoyens du monde. Ce discours, qui peut paraître à certains idéaliste, utopique, voire irréaliste ou fantaisiste, correspond pourtant à une réalité vécue par un nombre tous les jours croissant d’individus. L’action d’un individu sur l’Internet peut faire sentir ses effets dans le monde entier, si tant est qu’elle est pertinente. Et quand une fraction, même minuscule, des centaines de millions d’individus qui accèdent l’Internet décide de coopérer, cela fait une masse énorme susceptible de renverser des montagnes, de mettre en difficulté ou de faire concurrence aux entreprises les plus puissantes, de tenir en échec les tentatives hégémoniques les plus soigneusement préparées, comme cela s’est produit encore récemment pour l’AMI, l’Accord Multilatéral sur l’Investissement préparé en catimini par l’OCDE.

« Apprendre l’Internet », c’est apprendre la citoyenneté de demain.

Notes

[1] Crédit photo : QThomas Bower (Creative Commons By-Sa)




Qui veut être complice d’un concours à la con lancé par Microsoft à l’école ?

Alex Proimos - CC byLorsqu’un lecteur m’a signalé ce drôle de concours j’ai d’abord cru à un fake pour discréditer Microsoft tant cela me semblait gros. Et pourtant non, après vérification, ce projet existe bel et bien et le naïf c’est moi !

De quoi s’agit-il exactement ?

Le plus simple est d’en recopier ci-dessous les modalités qui se suffisent à elles-mêmes[1].

« Tout le monde connaît un enseignant. Allez à la rencontre de l’un d’entre eux. Vivez une expérience extraordinaire en classe, grâce à Microsoft.

Aujourd’hui nous proposons à notre communauté un nouvel appel à création très original pour Microsoft, qui vous lance un nouveau type de challenge, avec plus de 50 prix à gagner ! Une opportunité extraordinaire d’être mis en avant et de gagner une belle dotation grâce à eYeka !

Faites équipe avec un enseignant pour utiliser les Produits Microsoft dans sa classe et partagez votre histoire à travers un mini-documentaire vidéo (jusqu’à 3 mn de long), un montage de photos ou un PowerPoint en 3 parties : Découverte, Défi & résultats, Évaluation. »

La dotation globale est de 15 000 dollars dont 5 000 dollars pour la meilleure production.

eYeka est une société spécialisée dans le « marketing participatif ». Elle met « en relation » les marques avec les internautes « créateurs », en invitant ces derniers, avec promesses de rémunération à la clé, à faire des vidéos virales à la gloire de la marque dans le but de créer le buzz en faisant tourner ces vidéos dans les réseaux sociaux.

Au tout début de YouTube & co ces vidéos virales étaient spontanées et évidemment non rémunérées. Il en va tout autrement aujourd’hui, la fraîcheur a quasiment disparu et a laissé la place à un business florissant. Un business qui tente de continuer à faire croire que ces vidéos demeurent fraîches et spontanées parce que cela a plus d’impact sur un consommateur croyant encore souvent ne pas être en face d’une publicité classique.

Et c’est tout bénéfice pour la marque qui se retrouve en possession de vidéos produites par les autres pour un prix totalement dérisoire (ici 15 000 dollars) comparé au budget d’une publicité traditionnelle. Il y a bien possession parce qu’il va sans dire qu’en participant à de tels concours, vous cédez tous vos droits sur l’utilisation ultérieure de vos créations (en tout petit en bas du contrat). Et pas la peine de relever les prix, la crise mais surtout la culture actuelle de la surreprésentation du moi sur Internet faisant le reste.

Si l’on est un peu malin et que l’on jouit d’une situation favorable, on peut même proposer cela gratuitement aux internautes. J’en veux pour seul exemple cette spectaculaire vidéo Google à la gloire de Gmail.

Bon, ici, Microsoft ne possède ni la force du réseau Google ni son image positive. Elle a parfaitement conscience que rares seront les enseignants qui accepteront de se faire VRP Microsoft rien que pour ses beaux yeux. Alors elle doit s’y prendre autrement si elle veut pouvoir montrer qu’on utilise ses produits à l’école dans la joie et dans la bonne humeur, en passant donc par les services d’eYeka.

Bon courage ceci dit pour ce qui concerne les établissements scolaires publics français. Parce que l’on n’entre encore pas si facilement que cela dans les salles de classes, encore moins pour y filmer quelque chose, et encore encore moins si l’on se permet d’y filmer des élèves.

En tout cas, rendez-vous fin février pour la clôture du concours. Je suis bien curieux de voir si des collègues se seront effectivement livrés à cette mascarade commerciale sur un lieu de travail naguère associé à un sanctuaire.

Un exemple de plus qui révèle les difficultés croissantes de Microsoft à l’école. Un exemple de plus qui témoigne d’une époque en crise.

Ici comme ailleurs, un autre monde est possible. Celui du logiciel libre par exemple 😉

Source eYeka : l’annonce sur le blog et la page du concours.

Notes

[1] Crédit photo : Alex Proimos (Creative Commons By)




Ne pas subir, toujours agir ! Rencontre avec Patrick d’Emmaüs

David Dennis - CC by-saPatrick A., je l’ai rencontré en novembre dernier lors de l’Ubuntu Party 10.10 à la Cité des Sciences. Il était assis près du stand Framasoft et j’ai tout de suite été intéressé par son projet liant la communauté Emmaüs et les logiciels libres.

Nous nous sommes retrouvés pour déjeuner et nous avons discuté pendant près d’une heure dudit projet, de la société actuelle et bien sûr, des logiciels et ressources libres. « Ne pas subir, toujours agir ! », telle est la devise première d’Emmaüs, et elle lui va si bien que j’ai eu envie de mettre son projet mais aussi son engagement en valeur, en lui proposant une interview ultérieure par courriel pour le Framablog.

Patrick contribue à sa manière à aider les plus démunis en reconditionnant d’anciens PC avec des logiciels libres (soit sous Windows, soit directement sous GNU/Linux Ubuntu) et en les revendant à très bas prix. L’argent ainsi récolté permet de faire vivre des compagnons d’Emmaüs. À sa manière, et à la manière de l’abbé Pierre il y plus de 60 ans, il participe à un monde plus ouvert, plus respectueux de l’humain et plus solidaire [1].

Si il n’est pas seul sur ce projet, il est toujours à la recherche de bonnes volontés pour l’aider à améliorer ses scripts d’installation, ou plus généralement à mettre ses compétences informatiques au service de cette noble cause. N’hésitez pas à nous contacter, nous nous ferons un plaisir de relayer votre message à Patrick.

Entretien avec Patrick, bénévole chez Emmaüs

Bonjour Partick, peux-tu te présenter ?

Cette question est la première que vous me posez, mais c’est ma dernière à laquelle j’ai répondu, car la tâche n’est pas aisée. En essayant de ne pas faire trop long, pour ménager les lecteurs, à mes yeux ce sont les autres questions les plus importantes.

Pour vous répondre, je vais faire une liste style interrogatoire de police, il faut que je me prépare à cela, car ça pourrait me servir dans un futur proche 😉

  • âge 45 ans ;
  • marié depuis 20 ans, un enfant de 23 ans ;
  • né à Perpignan, vécu plus exactement à Pollestres, village de mes grands-parents paternels ;
  • études : Lycée technique Bac F2, DUT et diplôme d’ingénieur en Génie Électrique ;
  • je travaille depuis plus de 20 ans sur la région parisienne dans un groupe de « haute technologie », comme ils disent 😉

Mon engagement au sein d’Emmaüs et du bénévolat date de mai dernier. Jusque là j’avais envie de faire du bénévolat, mais comme beaucoup je n’avais pas le temps, ou plutôt je ne voulais pas le prendre. Mais à cette époque, je me suis dit qu’il fallait essayer de faire quelque chose, car je ne supportais plus que notre société laisse tout partir à la dérive.

Cela correspond aussi à une phase de changement de vie, où l’on comprend que si on ne fait pas ce que l’on a envie de faire à 45 ans après il sera trop tard.

Avec ces interrogations sur mon futur et à la lecture de cette phrase, « Dans toute difficulté, il y a une opportunité » d’Albert Einstein, j’ai décidé d’agir pour une cause et je me suis tourné vers le bénévolat chez Emmaüs. D’abord je voulais aider les personnes dans la rue, celles que je croisais dans le RER sans oser agir, puis sur les conseils de ma femme, je me suis tourné vers une aide dans le domaine informatique (voir ci-dessous), mais je ne pensais pas que cet acte allait me conduire aussi loin dans mon engagement.

À l’heure actuelle je me suis engagé dans d’autres combats face à cette société en crise. Je fais référence aux dernières lois de réforme de la retraite, à la catastrophe économique provoquée par les puissances financières, tout cela quand il y a de plus en plus de gens qui se retrouvent à mourir de froid dans les rues d’une des plus grandes capitales du monde !

Mes engagements sont pour les libertés en général et pas uniquement le logiciel libre. Si il n’y avait que ce dernier à libérer, nous serions dans un monde idyllique. Mais non, il y a beaucoup de choses à libérer. C’est pourquoi j’ai pris comme fond d’écran des PC reconditionnés : « Un jour, le monde sera libre ! » (voir image ci-dessous en fin d’article), mais seulement si nous faisons tous front ensemble.

Actuellement j’œuvre aussi pour la liberté des personnes, des biens et des entreprises, en aidant les autres dans ces combats, et en m’engageant syndicalement au sein de mon entreprise.

J’espère que mon témoignage aura un écho au sein des communautés du logiciel libre, afin que certains viennent à leur tour participer et soutenir. Car il y a urgence à faire bouger cette société qui a remplacé notre belle devise républicaine par : « Libéralisme, Égoïsme, Finance (ou Futilité) ».

Voila mes engagements et mon état d’esprit actuel, qui ne sont pas facile à vivre avec mes ex-amis et mes collègues de travail. Je n’ai pas la même vision du monde, et je suis parfois considéré dans mon milieu professionnel comme un « fou de gauche » !

Quelques mots sur Emmaüs ? (on a tous une vague idée, mais noir sur blanc, c’est mieux)

Vous savez, je ne suis pas un spécialiste du mouvement Emmaüs, mais en voici ma vision :

Le mouvement a été créé par l’abbé Pierre (originaire de Lyon, ville d’une partie des membres de Framasoft je crois), figure emblématique au point d’avoir été élu l’homme le plus aimé des français, plus d’une quinzaine de fois (il a même demandé à la presse de ne plus le faire figurer dans ces sondages pour laisser un peu de visibilité aux autres).

Cet homme était un religieux, ça tout le monde le sait, mais il s’est aussi engagé dans la résistance en 1940. Il aurait participé à fonder le maquis du massif du Vercors. Ami du général de Gaulle, il a fait de la politique sous ses conseils, après la Seconde Guerre Mondiale, et a été élu député à plusieurs reprises. Le mouvement Emmaüs est né en 1949 à Neuilly-Plaisance, dans une ancienne auberge de jeunesse. Durant le terrible hiver 54, il a lancé un appel radiophonique en faveur des plus démunis, c’est ce que l’on a appelé « l’Appel de la bonté » (cf le film Hiver 54). C’est à ce moment là que les communautés d’Emmaüs vont prendre leur essor. À l’heure actuelle il y environ 148 communautés en France, et plus d’une trentaine dans le monde.

Le principe des communautés est d’aider les plus démunis en leur fournissant un logement, de la nourriture et de l’argent de poche. En retour les compagnons (c’est comme cela qu’on appelle les personnes pour lesquels ce mouvement est né) doivent travailler pour la communauté en fonction de leurs moyens physiques, intellectuels et de leurs choix. Comme dans le monde libéral, les compagnons ont droit à une retraite (je ne sais pas à quel âge ils y ont droit), mais lorsqu’ils ne peuvent plus travailler, ils peuvent s’il le veulent, rester dans la communauté.

Pour pouvoir faire vivre les compagnons chaque communauté vend les dons des particuliers, et plus rarement des entreprises. Ces dons sont de toutes sortes, cela va du cendrier de bistrot à la marque d’une boisson alcoolisée jusqu’à un pavillon. Les dons sont triés, remis en état, puis vendus au sein de chaque communauté. Chaque communauté est indépendante et vit du fruit de son propre travail. Une communauté est gérée par un ou plusieurs directeurs par alternance, afin de coordonner le travail des compagnons.

Les objectifs de chaque communauté sont :

  • Fournir le logement aux compagnons (environ une cinquantaine de personnes par communauté);
  • Fournir la nourriture à ces mêmes compagnons, et aux salariés pendant leurs services;
  • Payer toutes les charges : salaires des directeurs, essence des camions de livraison, etc.
  • Donner de l’argent pour aider d’autres associations humanitaires à l’étranger;
  • Envoyer du matériel pour des associations humanitaires;
  • Acheter des maisons pour loger d’autres démunis;
  • etc.

À la tête des communautés, il y a Emmaüs-France qui coordonne et assure la logistique de l’ensemble. Il y a aussi la Fondation Abbé Pierre plus axée sur la communication (exemple de campagne) et la collecte des dons des entreprises. Au total ce sont environ 14 000 personnes qui participent au mouvement (4 000 compagnons, 4 000 salariés et 6 000 bénévoles).

Comment as-tu connu le logiciel libre ?

Dans le cadre de mon travail et de ma passion j’ai découvert le logiciel libre il y a une dizaine d’années.

J’ai connu Framasoft vers 2004, et c’est vous qui m’avez aidé sur le choix de SPIP pour développer un petit site intranet dans le cadre de mon travail. J’avais déjà à l’époque fait des tests d’installations sur les distributions Mandrake, Knoppix, et un peu plus tard Ubuntu. J’ai migré mon informatique personnelle sous Ubuntu il a deux/trois ans quand j’ai cassé un Windows XP Pro en voulant mettre à jour un logiciel de musique propriétaire (iTunes pour ne pas le nommer) !

Comment en es-tu venu à faire le lien Emmaüs / logiciel libre ? (motivations personnelles, éthique, etc.)

Je voulais participer à une cause humanitaire à force de voir cette misère quotidienne dans les transports en commun que je prend tous les jours de la semaine. D’abord j’ai voulu faire de la distribution de nourriture pour les plus démunis, mais ma femme m’a conseillé d’utiliser mes compétences en informatique pour aider Emmaüs.

J’ai pris contact avec leur service bénévolat, je voulais être affecté à la place la plus adaptée pour leur organisation. Je ne voulais pas spécialement travailler pour la communauté de Neuilly-Plaisance, que je connais depuis quinze ans maintenant, car je ne savais pas qu’il faisait du reconditionnement de PC, je n’en avais vu aucun lors de mes visites en tant que client, et pour cause, ils se sont vendus très vites, et c’est très bien.

Toujours est-il que le service du bénévolat, m’a renvoyé sur la communauté de Neuilly-Plaisance. Lors de mon arrivée, j’ai rencontré Djebar, le bénévole responsable informatique, qui travaillait tout seul à l’époque et qui avait beaucoup de mal à s’en sortir. Je lui ai demandé comment il travaillait et ce qu’il voulait que je fasse, ce qui lui prenait le plus de temps. Il m’a répondu que c’était l’installation des machines, donc j’ai commencé par faire un petit script d’installation en mode « unattend » [2].

Comme il perdait encore plus de temps sur la partie désinstallation des logiciels sur les machines XP, je me suis lancé également sur la désinstallation.

Quels sont les services que toi et les autres compagnons proposez ?

Maintenant, depuis deux semaines nous avons mis en place un mini Cyber-Espace (deux machines) pour présenter l’utilisation d’Ubuntu, avant la vente des machines. Notre but étant de vendre des machines pour faire vivre la communauté, mais aussi de faire en sorte que les acheteurs soient satisfaits de leurs achats. Nous préférons, ne pas vendre, que faire de la vente forcée, car le but est d’avoir le moins de retour possible et donner une bonne image de notre engagement et de notre travail.

Pour participer à rompre la fracture numérique nous vendons des machines d’occasions de l’ordre de 60 à 80 euros et les écrans plats de 15, 17 pouces entre 20 et 40 euros.

Je tente de diffuser mon travail à toutes les personnes et associations qui œuvrent pour les biens communs. En ce moment j’essaye de faire une installation Ubuntu en mode PXE [3], pour permettre la mise à jour de machines dans une école au Burkina Faso. Cette école a été équipée par Hervé S. et d’autres professeurs il y a deux ans. Je suis en contact avec lui depuis la dernière Ubuntu Party de Paris.

D’où proviennent les matériels à reconditionner ?

Le matériel reconditionné vient essentiellement de dons de particuliers. Les entreprises donnent mais c’est alors un lot de machines d’un seul coup et depuis huit mois que je travaille chez Emmaüs, je n’ai pas encore vu un don de machines provenant des entreprises.

Pourquoi avoir choisi de faire deux versions (GNU/Linux et Windows) ? Pourquoi ne pas l’avoir fait uniquement sous GNU/Linux ?

Mon responsable voulait vendre des machines et cela est plus simple sur XP, car les clients ne connaissent pas Ubuntu et GNU/Linux. Il avait déjà fait une expérience à ce sujet par le passé, mais cela n’avait pas donné de bons résultats. Et c’est aussi pour cela que je médiatise notre travail (merci à vous), car la communication est un outil nécessaire aujourd’hui.

Pourquoi Ubuntu ? Pourquoi XP ?

Pour XP, la vente est plus facile, mais le temps et les scripts d’installations plus complexes.

Pour Ubuntu, l’installation est plus simple, car on formate le disque dur, mais la vente est beaucoup plus difficile.

Comment sont gérées les licences Windows XP ? Achat ? Récupération ?

C’est à cause des problèmes de licences que nous mettons pour l’instant des machines sous Ubuntu, car les licences sont celle incluses dans le PC, et nous prenons grand soin à désinstaller les programmes hors XP pour conserver la licence d’origine.

Peux-tu nous en dire plus sur ces scripts d’installation ?

Pour les scripts sous XP vous trouverez en pièce-jointe ci-dessous le manuel d’installation.

Pour Ubuntu j’utilise à l’heure actuelle un fichier « preseed » [4] pour l’installer, puis un script Bash pour installer les programmes annexes, configurer Firefox, le bureau, le dock…

Ces scripts sont-ils librement téléchargeables ? Si oui, peut-on avoir le lien ?

Non pas pour l’instant, car je ne suis pas encore pleinement satisfait de mon travail et je n’ai pas de site pour mettre ces scripts. Je pourrais faire un site ou un blog mais avant d’avoir une grande visibilité, je serai à la retraite, même en tenant compte des prolongations présentes et futures 😉

En revanche, si vous me proposez de mettre ces scripts sur votre site je suis partant et j’en serais ravi. J’aimerai avant que vous fassiez des essais pour mettre quelque chose de vraiment opérationnel et même utilisable par Madame Michu.

Quels sont les retours des utilisateurs ? (sur XP modifié et sur Ubuntu ?)

Nous n’avons pas de retour des utilisateurs, sauf une fois, une personne avait rapporté sa machine, car il n’arrivait pas à lancer certains logiciels et pour cause, le script ne les avaient pas installés. Il y avait un petit bug dans le script. C’était les premières machines livrées avec ce XP modifié.

Maintenant nous n’avons pas de retour, donc cela fonctionne. Lors de la vente de la première machine Ubuntu, j’ai demandé à la cliente de me faire un retour sur l’utilisation de sa machine, mais toujours rien depuis 15 jours. C’est dommage de ne pas avoir de retour, mais c’est dans la logique de l’époque actuelle, les gens ne font rien et sont en permanence en train de zapper d’un loisir à l’autre sans autre but que celui d’oublier leur vie routinière.

Il faudrait que les gens suivent plus souvent la devise des compagnons d’Emmaüs, « Ne pas subir, toujours agir », mais on se retrouve plutôt avec « Métro Boulot Dodo ». On est loin du « Liberté Égalité Fraternité » qui anime mon travail et le logiciel libre.

Quelles sont les perspectives d’avenir pour ce projet ? (ce qui marche, ce qui bloque, etc.)

Les perspectives au niveau développement sont les suivantes :

  • Faire une installation PXE;
  • Faire une version ISO d’Ubuntu et des scripts ainsi que les paquets pour pouvoir faire une installation offline, afin de fournir un DVD à tout le monde car beaucoup de personnes n’ont pas encore Internet;
  • En même temps que cette version ISO, faire la documentation de mise en œuvre de l’installation (remarque : je ne l’ai pas fait car je veux l’effectuer pour une installation indépendante);
  • Faire une version dérivée de la Framakey Ubuntu Remix, personnalisée avec le dock que j’utilise (Pyg de Framasoft m’a dit que cela était faisable, donc à suivre);
  • Associer des artistes musiciens, photographes pour promouvoir leurs œuvres et leurs talents (à l’heure actuelle j’ai mis un lien sur le site de Pat D., qui fait des photos pour Emmaüs et j’ai un projet de diaporama avec elle pour une vente d’objets recyclés et personnalisés à la communauté de Neuilly-Plaisance).

Les perspectives au niveau diffusion sont les suivantes :

  • Avoir une visibilité sur le site Framasoft, cela serait super bien pour faire du buzz 😉
  • Évangéliser l’Emmaüs de Perpignan/Pollestres (je cite ce village car il y a peine 6 mois, je ne savais pas que l’Emmaüs de Perpignan se trouvait dans mon village natal, comme quoi le monde n’est peut-être pas encore libre mais il est petit !). J’emploie ce verbe « Évangéliser » même si je ne suis pas croyant, car cela va être difficile de convaincre le directeur, avec qui j’ai déjà eu un contact téléphonique, de passer sur Ubuntu, car il pense que les clients ne sont pas prêts. Mon but étant qu’il accepte de faire un mini Cyber-Espace avec deux machines en libre service (pour tout le monde ou en fonction de la configuration des lieux en libre service pour les futurs clients), et qu’il mette deux machines Ubuntu toujours en vente;
  • Prendre contact avec les « Ateliers sans frontière », contact fournit par YoBoY;
  • Diffuser les versions XP, et surtout la version Ubuntu sur les Emmaüs de la région parisienne.
  • Diffuser sur les MJC, puisque j’ai des contacts à ce niveau.
  • Puis m’attaquer à la diffusion sur les associations de la ville de Paris.

Comment peux-t-on aider ?

Déjà en me témoignant votre enthousiasme, mais aussi en informant comme ici sur nos actions.

Si vous voulez aller plus loin dans votre soutien, ma dernière idée serait de mettre en réseau les Emmaüs et/ou toutes les associations vendant des machines avec des logiciels libres et/ou ayant mis un place un Cyber-Espace, etc. On pourrait ainsi dessiner une carte de France sur un site web où nous trouverions à chaque fois les contacts, le nombres de machines vendues, celles disponibles, etc. Ce serait utile pour les personnes ou associations désireuses d’avoir des informations, voulant utiliser ces distributions, cherchant une formation, etc.

Quelles sont les personnes qui participent de près ou de loin à ce projet ?

Je ne suis pas tout seul pour faire vivre ce projet, même si pour l’instant je suis le seul à faire du développement (ce n’est pas faute d’avoir essayé d’impliquer des ex-amis pour les sortir de leur mal de vivre) et de faire de la diffusion.

Dans l’ordre d’arrivée et de soutien à ce projet, je tiens à remercier les compagnonnes et les compagnons de route suivants :

  • Laurence A. – Pour m’avoir entrainé malgré elle sur cette route sinueuse, et qui m’épaule quotidiennement;
  • Djebar R. – Pour son implication dans le bénévolat, et son enthousiasme;
  • Olive et Sab – Pour leurs engagements au sein de la communauté Emmaüs Neuilly-Plaisance, et d’être toujours partants pour suivre mes idées les plus folles;
  • José – Pour me mettre à la porte tous les samedi soir de la « Fontaine », et m’éviter ainsi de passer la nuit à l’atelier;
  • Antony 81 – Pour son travail tous les jours, et sa volonté : « Don’t give up my friend »;
  • César Henri – Pour ces connaissances en informatique de pointe, et ses tests de destruction de machines XP 😉
  • Yann D. – Pour son enthousiasme et ses implications futures, quand il aura réussi ces examens 😉
  • Sylvain D. – Pour son support dans le monde nébuleux et pas très libre d’Apple;
  • Ubuntu et plus particulièrement YoboY et Kinouchou – Pour leurs accueils à la dernière Ubuntu-Party;
  • Gérard P. – Pour son soutien inconditionnel à mon travail, pour avoir fait du buzz sur ce travail lors de la dernière Ubuntu-Party et son idée géniale de Cyber-Espace interne au sein des communautés Emmaüs pour montrer « l’EmmaBuntu », comme il souhaite que j’appelle cette distribution 😉
  • Hervé S. – Pour son travail pour une école au Burkina Faso, son soutien et ses conseils techniques, sans oublier ses corrections sur mon catalan;
  • Pat D. – Pour ses photos et son soutien au mouvement ;
  • et vous bien sûr, toute la grande équipe de Framasoft, sans qui ce travail n’aurait pas été possible.

Un dernier mot pour la route (nécessairement longue, mais nécessairement libre) ?

La route est longue cela tout le monde le sait, mais elle est sinueuse et glissante par temps de neige. Ce qui est dommage c’est que si peu de monde s’y engage ne serait-ce que pour un temps. Ils préfèrent souvent tous prendre des autoroutes déjà tracées.

Pour ma part je l’ai prise lorsque j’ai lu phrase d’Albert Einstein (pour rappel : « Dans toute difficulté, il y a une opportunité. »), et j’espère ne plus la quitter.

Merci pour ton engagement en faveur du logiciel libre et pour la réponse à cette interview.

Merci à vous tous pour votre travail, sincèrement sans vous je ne serais pas là où j’en suis. C’est pour cette raison que j’ai choisi un fond d’écran Framasoft (voir ci-dessous) pour mettre en valeur les PC reconditionnés et non pas un fond écran dédié aux causes d’Emmaüs.

Je suis désolé d’avoir donné autant de détails à vos questions, mais ce n’est pas ma faute c’est à cause de mon nom 🙂

Bonnes fêtes de fin d’année à vous tous, en liberté.

Patrick

Emmaüs - Bureau Ubuntu

Notes

[1] Crédit photo : David Dennis (Creative Commons By-Sa)

[2] Qui ne nécessite pas la supervision d’un humain pour cliquer sur « Ok » à tout bout de champs. Un peu à l’image de Framapack.org

[3] Directement depuis le réseau, et sans nécessiter de système d’exploitation sur la machine cible.

[4] Fichier d’instructions pour l’installation.