Pourquoi plus de dix ans de retard pour l’informatique à l’école ?

QThomas Bower - CC by-saAuriez-vous deviné que l’article que nous vous proposons aujourd’hui date de 1998 ? Oui car il est question de francs et non d’euros, mais sinon force est de constater qu’il est toujours d’actualité.

On pourrait même ajouter qu’il est malheureusement toujours d’actualité car les arguments avancés restent pertinents alors que, douze ans plus tard, les solutions envisagées n’ont toujours pas été prises. Et il est alors légitime de se demander pourquoi, et qui a et a eu intérêt à ce qu’il soit urgent de ne rien faire.

J’ai donc voulu profiter du fait que le Framablog est relativement bien intégré dans la sphère des blogs et autres réseaux sociaux pour le sortir de sa naphtaline et vous le faire partager. Nous devons cet article à Bernard Lang, directeur de recherche à l’Inria et membre fondateur de l’AFUL.

Le sujet de la place de l’informatique à l’école est un sujet qui semble a priori un peu à la marge des logiciels libres. Il n’en est rien pourtant. Et c’est pourquoi nous publions régulièrement des articles sur ce thème, en soutenant le travail, enfin proche d’aboutir, de Jean-Pierre Archambault et d’autres, au sein notamment de l’EPI et de l’ASTI :

C’est aussi pourquoi notre collection de livres libres Framabook accueille des titres comme Le C en 20 heurs ou Tout ce que vous avez toujours voulu savoir sur Unix sans jamais oser le demander.

Il ne s’agit pas de faire de tout citoyen un programmeur chevronné. Mais logiciels (libres ou pas), données (personnelles ou pas), réseaux, Cloud Computing, Internet (filtrage, neutralité), Hadopi, Acta, Loppsi, Facebook, Microsoft, Apple, Google, Wikileaks, Anonymous… comment comprendre et appréhender au mieux ce nouveau monde si l’on n’a pas un minimum de culture informatique ?

Parce que dans le cas contraire, on se met alors tranquillement à accepter, pour ne pas dire applaudir, l’entrée des iPad dans nos écoles, ce qui devrait d’ailleurs être le sujet de mon prochain billet[1].

L’Informatique : Science, Techniques et Outils

URL d’origine du document

Bernard Lang (INRIA) – décembre 1998

(Présenté à LexiPraxi 98, journée de réflexion sur le theme «Former des citoyens pour maîtriser la société de l’information», organisée le 9 décembre 1998 à la Maison de l’Europe (Paris) par l’AILF. L’auteur remercie Pierre Weis pour sa relecture et ses nombreux commentaires.)

« Le développement extrêmement rapide des technologies de l’information et de la communication ouvre un formidable potentiel de croissance et de création d’emplois, mêlant des enjeux industriels, économiques et sociaux considérables. Ces technologies constituent le premier secteur économique des prochaines années… » (Bernard Larrouturou – L’INRIA dans dix ans – 1997)

Devant une telle analyse, devant l’importance de l’enjeu, l’on imagine aisément que l’une des premières choses à faire est de développer les sciences de l’information dans l’enseignement, afin de préparer les élèves aux défis du prochain siècle. C’est effectivement ce qui se passe, et l’on voit les USA dépenser des sommes de l’ordre de 100 milliards de francs par an pour l’informatisation des écoles. Sans être du même ordre, les efforts consentis par la France dans ce domaine sont également considérables. Et pourtant, selon un article de Todd Oppenheimer, The Computer Delusion, paru dans la revue Atlantic Monthly en Juillet 1997, l’introduction de l’informatique dans les établissements scolaires est loin de donner les résultats que l’on pourrait attendre de tels investissements, et l’on peut légitimement se demander si des investissements moindres, mais autrement employés, ne donneraient pas de meilleurs résultats.

Où est l’erreur ?

L’une des premières remarques que l’on peut faire est que les plus ardents promoteurs de l’informatique à l’école sont les constructeurs de machines, et surtout les éditeurs de logiciels. Il s’agit donc de promotion corporatiste et commerciale, d’habituer les familles et les futurs consommateurs à ces produits, de capturer des marchés, bien plus que d’améliorer le système éducatif. À cet égard l’Union Européenne n’est pas en reste. Si l’on analyse une document comme le Rapport de la Task force Logiciels éducatifs et Multimédia de la Commission Européenne, on constate que la Commission est bien plus préoccupée de développer des marchés lucratifs que d’améliorer le système éducatif. Devant cet assaut mercantile, beaucoup de voix s’élèvent contre l’introduction excessive, trop vite planifiée et mal analysée de l’informatique à l’école, en se demandant si l’utilité pédagogique en est réelle, si l’on n’est pas en train d’appauvrir le système éducatif, que ce soit par le choix d’innovations faussement pédagogiques, ou simplement par une mauvaise évaluation des priorités d’investissement.

Nullement compétent en matière de théorie pédagogique, je me garderai bien de trancher dans un sens ou un autre. Force est cependant de constater qu’il est clair que les nouveaux outils informatiques ont déjà montré qu’ils pouvaient, au moins dans certaines circonstances, apporter un plus pédagogique. Mais de là à faire un investissement massif, sur des ressources chères, sans analyse sérieuse des différentes alternatives, sans expérimentation sur le long terme, simplement sous la pression des marchés et des média, est-ce bien raisonnable ?

Mais là n’est pas l’essentiel de notre propos. Car nous avons parlé de pédagogie, alors que les enjeux du prochain siècle sont d’abord, nous le disions, dans la maîtrise des nouvelles technologies, et au moins autant dans la maîtrise d’une transformation radicale de notre environnement due à l’utilisation massive des ressources informationnelles, en particulier grâce à l’Internet. Mais cet aspect des choses est curieusement très largement ignoré dans l’évolution de nos programmes éducatifs. L’attention se focalise trop sur l’informatique comme support de la pédagogie, au sens le plus traditionnel du terme (même si les techniques sont très nouvelles dans certains cas), et l’on ignore assez systématiquement l’informatique en tant que discipline d’enseignement, l’informatique comme sujet d’étude.

A cette distinction évidemment essentielle, il convient d’ajouter une troisième catégorie, l’informatique comme outil dans l’enseignement. Je pense en particulier à l’intrusion d’outils, d’intermédiaires informatiques, dans certaines disciplines. Sans vouloir m’étendre sur ce sujet, qui relève également de la pédagogie, on peut se demander si la trop grande présence de médiations informatiques, par exemple dans la conduite d’expériences de physique, n’introduit pas une trop grande distanciation par rapport à l’objet étudié. L’élève ne risque-t-il pas de prendre l’habitude de faire plus confiance à ce que lui dit l’ordinateur qu’à ses sens, son esprit critique, ses facultés d’analyse. Combien d’élèves sont déjà totalement dépendants de leur calculette, et incapable d’un calcul mental simple sur des ordres de grandeur sans vérifier immédiatement sur l’écran magique. On retrouve ce problème dans l’enseignement de l’informatique elle-même, quand l’apprentissage passif des outils se fait dans l’ignorance de toute compréhension des mécanismes, même les plus simples, qu’ils mettent en jeu.

Si les enjeux réels sont dans la maîtrise des sciences de l’information, ce sont ces sciences, et en particulier l’informatique, qu’il faut enseigner en tant que discipline scientifique.

Mais comme beaucoup d’autres disciplines, l’informatique a de multiples facettes, science théorique et expérimentale objet de recherches d’une grande diversité, technologie donnant lieu à une activité industrielle considérable, et ensemble d’outils des plus en plus intégrés à notre vie quotidienne, familiale ou professionnelle. Probablement en raison de la jeunesse de cette discipline, et précisément à cause de son manque actuel d’intégration dans le cursus scolaire, la distinction entre ces aspects complémentaires, mais indissociables, n’est pas faite dans les esprits. Beaucoup en sont encore à confondre les aspects fondamentaux et pérennes avec leur expression actuelle dans des outils destinés à évoluer rapidement. Comme mes collègues et moi-même l’écrivions dans Le Monde, les disciplines plus anciennes distinguent sans problème ces trois composantes, et nul ne confond la thermodynamique, la technologie des moteurs à explosion et le mode d’emploi d’un véhicule automobile. Cette confusion, encore présente dans le cas de l’informatique, est en outre renforcée par le fait que chacun pouvant s’essayer assez facilement à certains de ses aspects originaux, comme la programmation sur des problèmes simples, on a l’illusion que c’est une discipline facile à maîtriser et sans réelle profondeur. Mais en fait cela revient à se prétendre spécialiste du génie civil et de la résistance des matériaux parce que l’on sait établir un pont en jetant une planche sur un ruisseau.

Pour en revenir à l’enseignement des outils fondés sur l’informatique, et non des outils de l’informatique, il est malheureusement fréquent de voir appeler cours d’informatique un enseignement qui se fonde uniquement sur l’apprentissage de la mise en marche d’un ordinateur, et sur l’utilisation de quelques outils de bureautique. Mais c’est là un cours de bureautique, et non d’informatique, aussi bien que d’apprendre à conduire et à remplir le réservoir de sa voiture ne saurait constituer un cours de thermodynamique, ni même de technologie automobile. C’est utile, certes, dans la vie courante, mais ce n’est aucunement formateur pour l’esprit des élèves. De plus, la technologie informatique étant en évolution rapide, la pérennité de cet enseignement est très aléatoire, d’autant plus que le manque de variété des outils utilisés prive les élèves de toute espèce de recul par rapport à ces outils.

Mais le problème est à mon sens beaucoup plus grave en ce qui concerne l’enseignement de la technologie informatique, que ce soit à l’école ou à l’université. Cette technologie est complexe, en évolution permanente, et très largement contrôlée par l’industrie informatique et notamment les grands éditeurs. Or l’on constate que trop souvent, cet enseignement consiste plus à apprendre à se servir des réalisations technologiques de ces éditeurs qu’à en comprendre les principes, à savoir les critiquer, à savoir les comparer avec d’autres approches, commerciales ou non. Sous le pretexte fallacieux de préparer les étudiant à la vie active, en fait aux besoins les plus immédiats de leurs futurs employeurs, on fait passer pour formations universitaires ce qui n’est que formations kleenex, destinées à devenir obsolètes aussi vite que les produits (souvent déjà obsolètes par rapport à l’état de l’art) sur lesquels elles se fondent. Manquant de profondeur, ces formations ne sauraient être durables, et c’est ainsi que le système éducatif prépare de futur chomeurs et la pénurie de professionnels compétents pour notre industrie. Une bonne façon de garantir la qualité et la pérennité d’un enseignement – et de former l’esprit critique des élèves – c’est de toujours l’asseoir sur une assez large variété d’exemples, que l’on peut comparer et opposer pour en extraire les aspects les plus essentiels, en évitant de se cantonner à l’apprentissage d’un seul type de solutions techniques.

Une première étape en ce sens consisterait à se départir du totalitarisme actuel, en matière de systèmes d’exploitation, de réseaux et de solutions bureautiques notamment, et à faire pénétrer une plus grande diversité de logiciels dans le système éducatif. Il est vrai que la gestion de la diversité a un coût, mais le bénéfice pédagogique le justifie. En outre, il ne faut pas oublier que l’enseignement public a un devoir de laïcité, d’indépendance, et qu’il est donc impératif qu’il évite de se faire le champion d’une marque, d’un produit ou d’une école de pensée. Enfin, il ne faut pas oublier non plus que la diversité est aussi un facteur de progrès et de stabilité « écologique » qui sont essentiels pour le développement d’un secteur technologique. Introduire cette diversité à l’école, quoi que puissent en dire des entreprises qui vivent par nécessité avec un horizon à six mois, c’est aussi garantir un meilleur équilibre futur de notre économie.

Si l’informatique est enseignée comme science fondamentale à l’université, au moins dans les enseignements les plus avancés, cet aspect n’est ni abordé ni même évoqué au niveau de l’enseignement général. Cela ne peut que renforcer une attitude de passivité vis à vis de ce qui apparaît alors comme une technologie ancillaire, ne méritant pas que l’on s’attarde sur son influence croissante, sur le pouvoir qu’elle s’octroie dans toutes nos activitées. Ainsi une meilleure compréhension du rôle fondamental des mécanismes de représentation et d’échange des données nous rendraient certainement plus sensibles à cette forme de dépendance qui s’établit insidieusement dans notre société quand tous nos modes de gestion et de communication de l’information sont peu à peu entièrement contrôlés par des entreprises privées, dont les seuls objectifs sont de nature mercantile.

Outre que l’informatique a ses propres problèmes, sa propre façon de les traiter, ses propres résultats fondamentaux, elle est intéressante du point de vue de l’enseignement général parce que c’est une science carrefour. Il y a bien sûr des aspects classiquement scientifiques dans l’informatique, mais en plus, par les concepts qu’elle met en oeuvre, elle se rapproche d’autres disciplines littéraires. Par exemple, en informatique, les notions de langage, de syntaxe et de sémantique sont très importantes. Dans l’enseignement actuel, ces concepts relèvent du français ou de la philo… et voilà que l’on peut les illustrer de façon plus concrète – peut-être imparfaite car trop formalisée et mécanique, mais ce défaut-même est source de considérations enrichissantes – par des exemples opérationnels, presques tangibles. À côté de cela, on y rencontre des problèmes de logique, des questions strictement mathématiques, des problématiques apparentées à la physique la plus théorique… On peut donc y trouver matière à discuter de nombreux concepts qui sont aussi pertinents dans d’autres domaines, et donc à éventuellement réduire la dichotomie qui est souvent perçue entre les sciences et les humanités. C’est une situation assez extraordinaire, un champ d’ouverture intellectuelle, dont il est vraiment dommage de ne pas profiter.

Tout n’est cependant pas négatif dans l’informatisation de notre enseignement. Le fort accent mis sur le développement de la connectivité avec l’Internet, bien que souvent décrié, est une avancée essentielle, et cela pour au moins deux raisons majeures.

La première de ces raisons est tout simplement que les élèves d’aujourd’hui seront appelé à vivre dans un monde où la maîtrise de l’information omniprésente sera un élement majeur de la vie sociale. À bien des égards, celui qui ne saura pas gérer cet espace de données, de connaissances et de communication sera dans une situation de dépendance analogue à ceux qui, aujourd’hui, ne savent pas lire, ne savent pas trouver leur chemin sur une carte ou remplir un formulaire. « Apprendre l’Internet », c’est apprendre à vivre dans la société de demain.

La deuxième raison est sans doute encore plus fondamentale pour l’éducation citoyenne. Même sans l’informatique, notre monde a atteint une complexité extrème où les citoyens ont de moins en moins leur mot à dire, où même les pouvoirs politiques sont de plus en plus impuissants devant la complexification des structures économiques et sociales et surtout la mondialisation généralisée. Pour ne prendre qu’un exemple, majeur, les entreprises ont acquis une existence autonome, fortes de leur puissance économique et de leurs dispersion géographique, dans un système où les êtres humains, clients, employés, dirigeants ou actionnaires, ne sont plus que des pions sans aucun pouvoir indépendant. Elles en sont au point où elles disputent leur pouvoir aux nations, aux représentant élus de la population. Face à une situation où la place même de l’homme sur cette planète est radicalement remise en cause, il est nécessaire de trouver de nouvelles structures, de nouveaux modes d’échange, de communication et d’organisation qui permettent au citoyen de retrouver la place qui lui revient dans une société devenue mondiale. Et cela est possible, grâce à l’Internet, à condition d’apprendre à en maîtriser les ressources, à comprendre, voire à tolérer – ce qui n’est pas toujours facile – les points de vues d’autres cultures maintenant à notre porte, à communiquer, à partager et à coopérer avec les autres citoyens du monde. Ce discours, qui peut paraître à certains idéaliste, utopique, voire irréaliste ou fantaisiste, correspond pourtant à une réalité vécue par un nombre tous les jours croissant d’individus. L’action d’un individu sur l’Internet peut faire sentir ses effets dans le monde entier, si tant est qu’elle est pertinente. Et quand une fraction, même minuscule, des centaines de millions d’individus qui accèdent l’Internet décide de coopérer, cela fait une masse énorme susceptible de renverser des montagnes, de mettre en difficulté ou de faire concurrence aux entreprises les plus puissantes, de tenir en échec les tentatives hégémoniques les plus soigneusement préparées, comme cela s’est produit encore récemment pour l’AMI, l’Accord Multilatéral sur l’Investissement préparé en catimini par l’OCDE.

« Apprendre l’Internet », c’est apprendre la citoyenneté de demain.

Notes

[1] Crédit photo : QThomas Bower (Creative Commons By-Sa)




À qui la faute si les logiciels libres sous licence GPL sont éjectés de l’App Store ?

Chris Willis - CC byOn peut reprocher beaucoup de choses à Microsoft mais jamais on n’a vu un logiciel libre empêché de tourner sous Windows parce que la licence du premier était incompatible avec le contrat d’utilisation du second (sinon un projet comme Framasoft n’aurait d’ailleurs pas pu voir le jour).

Il semblerait qu’il en soit autrement avec Apple et son App Store, la plateforme de téléchargement d’applications pour les appareils mobiles fonctionnant sous iOS (iPod, iPhone et iPad).

C’est que révèle la récente « affaire VLC », célèbre logiciel libre de lecture vidéo, dont la licence semble tant et si bien poser problème à Apple qu’il a été brutalement et unilatéralement décidé de le retirer de l’App Store.

Et tout le monde se retrouve perdant, à commencer par l’utilisateur qui ne pourra plus jouir de cette excellente application sur son iPad & co[1].

Derrière ce malheureux épisode (qui n’est pas le premier du genre) se cache une question en apparence relativement simple : logiciels libres et App Store peuvent-ils cohabiter ? Un logiciel, dont les libertés d’usage, de copie, de modification et de distribution, sont garanties par sa licence, peut-il se retrouver dans un espace dont le contrat stipule un nombre limité de copies sur un nombre limité de machines ? Et comme la réponse est en l’occurrence négative, le risque est réel de voir les logiciels libres totalement écartés de l’App Store, et par extension des nombreuses autres plateformes privées qui poussent comme des champignons actuellement.

Mais attention, il s’avère que dans le détail c’est plus complexe que cela. Et c’est pourquoi nous avons pris la peine d’ajouter notre grain de sel au débat en traduisant l’article ci-dessous qui résume assez bien à nos yeux la situation. C’est complexe mais ça n’en est pas moins intéressant voire enrichissant car les particularités de la situation éclairent et illustrent de nombreux aspects du logiciel libre.

Il convient tout d’abord de préciser que ce n’est pas le logiciel libre en général mais le logiciel libre sous licence GPL (et son fameux copyleft) qui est pointé du doigt ici. Ensuite il y a l’existence d’un troisième larron en la personne de la société Applidium à qui l’on doit le portage de VLC dans iOS et sa présence dans l’App Store (dans un premier temps accepté puis aujourd’hui refusé). App Store dont les règles d’utilisation définies par Apple sont floues et changeantes. Enfin c’est bien moins la « communauté VLC » dans son ensemble que l’un de ses développeurs qui est impliqué dans cette histoire.

Choisir de placer son logiciel sous licence libre, a fortiori sous licence GPL, n’est pas un acte anodin. La liberté « en assurance-vie » que vous offrez là à vos utilisateurs peut s’opposer parfois frontalement à d’autres logiques et objectifs.

Tout le monde se retrouve perdant, mais le logiciel libre le serait davantage encore s’il devait céder en y perdant son âme.

La GPL, l’App Store et vous

The GPL, the App Store, and you

Richard Gaywood – 9 janvier 2011 – Tuaw.com
(Traduction Framalang : Olivier Rosseler et PaulK)

Mon collègue Chris a rédigé un article sur l’éviction de l’App Store du célèbre logiciel de lecture video VLC, après la plainte d’un développeur du projet sur la base d’une violation de la GNU Public License (l’application a depuis été mise à disposition sur Cydia pour les appareils jailbreakés).

Les réactions de la blogosphère Mac ont été virulentes après cette décision, et Chris s’est admirablement fait l’avocat des plaignants. Mais il ne faut pas oublier qu’une histoire a toujours plusieurs versions (et que la vérité se trouve souvent à mi-chemin entre les deux). Aujourd’hui, je me fais avocat de la défense : pourquoi Rémi Denis-Courmont était parfaitement dans son bon droit. Mais pour mieux étayer mon argumentation, je vais revenir un peu sur l’historique de l’Open Source. Alors accrochez-vous !

Commençons par le commencement : pourquoi VLC a été retiré de l’App Store

L’histoire a déjà été traitée, mais voici quelques faits que vous devez connaître. VLC (hébergé à l’adresse http://videolan.org) est un lecteur audio et vidéo complet, multi-plateforme qui a maintes fois fait ses preuves. VLC est publié sous la version 2 de la licence GNU Public License (GPL). Une entreprise nommée Applidium, sans lien avec le projet, a utilisé le code source de VLC pour en faire une application pour iOS gratuite, afin que les utilisateurs d’iPhone et d’iPad puissent s’en servir pour lire plus de formats de fichiers que leur appareil n’en supporte nativement, comme les fichiers AVI et MKV. En accord avec la GPL, Applidium a libéré le code source de la version modifiée de VLC.

L’accueil reçu par ce projet sur les listes de diffusion des développeurs de VLC fut contrasté. Alors que certains développeurs n’y voyaient pas d’inconvénient, le portage de leur travail (censé être ouvert) sur une plateforme, iOS, connue pour sa fermeture et ses restrictions sur la ré-utilisation du code des applications distribuées sur l’App Store, gênait les autres. En point d’orgue de cette histoire, l’un des développeurs, Rémi Denis-Courmont (auteur d’une bonne partie du code de VLC) demanda à Apple de retirer l’application VLC pour iOS de l’App Store pour violation de la GPL, à laquelle est soumise sa contribution au projet.

Finalement, quelques mois plus tard, il semblerait qu’Apple ait obtempéré sans poser de question puisque l’application a été retirée. Denis-Courmont s’interroge malgré tout sur les délais. Si c’était effectivement la réponse d’Apple à sa demande, l’entreprise aurait pu agir bien plus tôt.

Et donc, qui est dans le vrai ?

Une courte histoire des licences Open Source

Tout d’abord, à quoi sert l’Open Source ? Parfois, des programmeurs initient des projets sur leur temps libre (ou en tant qu’universitaire, ne subissent pas les pressions commerciales, tous les systèmes d’exploitation basés sur Unix trouvent leurs racines dans l’Open Source et dans les universités, ce qui n’est pas une coïncidence), puis ils deviennent trop gros pour s’en sortir seuls. Une aide extérieure est la bienvenue, par exemple pour réparer les bogues ou pour ajouter de nouvelles fonctionnalités, et grâce à Internet les volontaires sont nombreux. Ils mettent donc le code sous une licence Open Source afin d’en publier la source et de recruter des collaborateurs.

Dit ainsi, ça paraît assez utopique, mais le fait est que de nombreux logiciels de qualité sont nés ainsi, grâce à l’Open Source : le compilateur C GCC, le noyau Mach, le serveur web Apache HTTPd, l’interface de commande bash, les langages de programmation Perl et Python et le moteur de rendu Webkit utilisé par Safari. Ces quelques exemples ainsi que des centaines d’autres sont tous Open Source et font tous partie de Mac OS X. Apple utilise donc clairement l’Open Source.

Au-delà des logiciels, nous devons Wikipedia à la famille des licences Creative Commons, créées pour étendre les idées des logiciels Open Source à d’autres activités créatives. On peut même dire que l’Open Source reproduit approximativement les processus scientifiques où les chercheurs publient leurs méthodes et leurs découvertes librement afin que d’autres chercheurs puissent s’appuyer sur leurs travaux. Ce sont là des concepts très importants à mes yeux puisque je suis titulaire d’un doctorat en informatique. Je pense que l’on peut s’accorder sur le fait que les idées derrière les logiciels libres nous sont bénéfiques à tous.

Prenons l’exemple d’Alice, une programmeuse qui a écrit un petit utilitaire. Un autre programmeur, Pierre, apprécie beaucoup son programme, mais il voudrait le modifier pour qu’il réponde mieux à ses besoins. Alice décide alors de dévoiler le code source de son programme pour que Pierre puisse y apporter des changements.

La licence la plus simple qu’Alice puisse appliquer à son code est celle du domaine public. Cela signifie que l’auteur a volontairement abandonné tous ses droits sur le code et que chacun peut en faire ce qu’il veut. Pierre peut faire ses modifications et garder la nouvelle version pour lui-même, ou ouvrir sa boutique et la vendre. Il peut même en parler à son patron, Paul, chez Microsoft, et peut vendre l’outil d’Alice dans la prochaine version de Windows, sans qu’elle ne touche jamais un centime. Si vous vous dites que c’est pas très juste pour Alice, vous n’êtes pas les seuls. Gardez cet exemple à l’esprit.

Alice a également le choix entre des familles de licences similaires : la licence MIT, la licence BSD et la licence Apache. Grâce à elles, Alice conserve son droit d’auteur sur le code, mais elles octroient également à quiconque le télécharge le droit légal de le modifier et d’en distribuer la version modifiée. Différentes variantes de ces licences imposent également à Pierre de mentionner le nom d’Alice quelque part dans le logiciel, à l’instar de la licence Creative Commons Attribution. Mais rien ne l’empêche de le vendre sans rien verser à Alice en échange.

La GPL et les autres licences copyleft

En réponse à ce problème, la Fondation pour le Logiciel Libre (FSF) a créé la GNU Public License. Elle est aussi appelée copyleft pour bien marquer la rupture qu’elle représente par rapport aux autres licences dont il est question ici. Philosophiquement, la GPL a été créée pour assurer aux utilisateurs de logiciels sous GPL les quatres libertés suivantes :

  • La liberté d’exécuter le logiciel, pour n’importe quel usage ;
  • La liberté d’étudier le fonctionnement d’un programme et de l’adapter à ses besoins, ce qui passe par l’accès aux codes sources ;
  • La liberté de redistribuer des copies ;
  • La liberté de faire bénéficier à la communauté des versions modifiées.

Évidement, la licence en elle-même est un charabia juridique assez dense, dont le but est d’assurer une validité légale à cette philosophie, mais ces quatre libertés en sont vraiment le cœur. Vous remarquerez que la deuxième et la quatrième libertés imposent que le code source de tout programme sous GPL soit mis à disposition en plus de l’exécutable, que l’on utilise vraiment. C’est la raison pour laquelle de nombreuses entreprises qui font usage de code sous GPL dans leurs produits hébergent des pages entières de code source, comme le fait Netgear par exemple. Alors, évidemment, leurs concurrents peuvent analyser le fonctionnement exact de leurs produits, pourtant ils estiment que cet inconvénient est largement compensé par les avantages qu’il y a à s’appuyer sur des produits Open Source.

Si on reprend notre histoire d’Alice et Pierre, voyons ce qu’il se passe maintenant. Alice rend son code source public. Pierre rédige son patch et décide sournoisement de vendre cette nouvelle version du programme d’Alice. Mais Alice n’est pas bête et voit bien ce qu’il se trame. Elle pose alors un ultimatum à Pierre : soit il rend public le code source de sa version modifiée , soit ils se retrouveront devant un juge pour rupture du contrat grâce auquel il a obtenu la version d’Alice (c’est à dire, la GPL). Bob s’incline évidemment et publie son code. Aucun cas n’est allé jusqu’au tribunal dans la vraie vie. Pour beaucoup, cela prouve que la GPL est valide et incontournable : personne n’ose la contester.

L’App Store et la GPL peuvent-ils co-exister ?

Le conflit le plus évident entre l’App Store et la GPL réside dans la troisième liberté ? « La liberté de redistribuer des copies ».

Ce sujet a été largement débattu, chaque camp avançant ses arguments. Malheureusement, la résultat est que : premièrement, c’est un terrain plutôt flou et deuxièmement, il ne sera jamais certain qu’une des deux partise a plus raison que l’autre sans décision de justice. Il est peu probable que l’on en arrive à une telle situation car Apple (en tant que distributeur de logiciel pour tout l’App Store) n’ira probablement pas se battre en justice pour un logiciel Open Source. Concrètement, tant que le contraire n’est pas prouvé, l’App Store et la GPL sont incompatibles. C’est sans doute l’avis d’Apple en tout cas, ils n’auraient sûrement pas supprimé VLC (et d’autres logiciels Open Source comme GNU Go) de l’App Store dans le cas contraire.

Les membres de la Fondation pour le Logiciel Libre (FSF), auteurs de la GPL ne pensent pas non plus que l’on puisse concilier la GPL et l’App Store. Leur principal argument réside dans la clause suivante de la GPL v2 :

À chaque fois que vous redistribuez un programme (ou n’importe quelle réalisation basée sur le programme), l’utilisateur final reçoit automatiquement une licence du détenteur originel du programme l’autorisant à copier, distribuer et modifier le programme sujet à ces termes et conditions. Vous ne devez imposer à l’utilisateur final aucune autre restriction à l’exercice des droits garantis par la licence.

Regardons maintenant les Règles d’utilisation des produits App Store :

(i) Vous êtes autorisé à télécharger et synchroniser un Produit à des fins personnelles et non commerciales sur tout produit de la marque Apple tournant sur iOS (« Produit iOS ») que vous possédez ou contrôlez.

(ii) Si vous êtes une société commerciale ou un établissement scolaire, vous êtes autorisé à télécharger et synchroniser un Produit destiné à être utilisé soit (a) par une seule personne sur un ou plusieurs Produits iOS que vous possédez ou que vous contrôlez, soit (b) par plusieurs personnes sur un Produits iOS partagé dont vous êtes propriétaire ou que vous contrôlez. Par exemple, un seul salarié peut utiliser le Produit aussi bien sur son iPhone que sur son iPad, ou encore, plusieurs étudiants peuvent utiliser le Produit en série sur un seul iPad situé dans un centre de ressources ou une bibliothèque.

(iii) Vous pourrez simultanément stocker des Produits App Store à partir d’un nombre maximum de cinq Comptes différents sur des Produits iOS compatibles, tels qu’un iPad, un iPod ou un iPhone.

(iv) Vous pourrez procéder à la synchronisation manuelle de Produits App Store à partir d’un ou plusieurs appareils autorisés par iTunes vers des Produits iOS munis d’un mode de synchronisation manuel, à condition que le Produit App Store soit associé à un Compte existant sur l’appareil principal autorisé par iTunes, étant précisé que l’appareil principal est celui qui a été synchronisé en premier avec le Produit iOS ou celui que vous avez ultérieurement désigné comme tel en utilisant l’application iTunes.

Le conseil Légal de la FSF considère ces termes comme des restrictions à l’utilisation que peut faire l’utilisateur des logiciels obtenus sur l’App Store, c’est donc directement une atteinte à la GPL. Il importe peu que le port de VLC sur iOS soit libre. En fait, il aurait été plus simple d’imaginer qu’il ne l’était pas.

Imaginez, si Applidium avait fait payer 5$ pour leur port de VLC, tout en distribuant le code source complet sur leur site web. Rien dans la GPL n’empêche les développeurs de facturer leurs logiciels dérivés, c’est donc convenable. Mike achète une copie du logiciel pour 5$ et veut donner une copie à son ami Steve (c’est son droit, garanti par la GPL), mais il ne peut pas. Steve peut acheter sa propre copie à 5$, mais ne peut pas l’avoir par Mike ; il doit aller voir Apple.

Dans la réalité, VLC était gratuit, ce n’est donc pas gênant pour Steve de ne pas pouvoir dupliquer la copie de Mike ; mais ce ne sera pas forcément le cas avec d’autres logiciels et dans tous les cas, ça ne change rien, étant donné que les termes de la GPL n’acceptent pas plus que l’on restreigne la liberté de partager le logiciel parce que le logiciel dérivé se trouve être gratuit.

Notez que la FSF considère également le fait de ne pouvoir installer la même application que sur cinq iOS en même temps comme une autre restriction aux droits de l’utilisateurs ; cela semble être une erreur, puisque ce terme du contrat n’apparaît que sur la partie dédiée au contenu iTunes du Contrat de l’Utilisateur et ne s’applique donc pas aux applications de l’iOS. Il est également possible que le Contrat de l’Utilisateur pour iTunes ait été modifié après la publication de l’article de la FSF.

Qu’en est-il des autres programmes sous GPL présents dans l’App Store ?

On croit souvent, à tort, que lorsqu’un code est publié sous GPL, il ne peut plus l’être sous une autre licence. Ce n’est pas vrai. Si tous les ayants-droits, c’est-à-dire toutes les personnes ayant contribué au code, se mettent d’accord, le logiciel peut être placé sous une double licence.

Prenez l’exemple de Java. Java est placé sous GPL et Apple a pourtant utilisé la source de Sun pour la modifier (afin que la machine virtuelle Java sous OS X soit mieux intégrée à cet environnement) sans pour autant distribuer le code source de la version modifiée. Comment ? Simplement parce qu’ils ont utilisé le code source de Sun sous une autre licence, ce que Sun pouvait proposer car (à l’époque) le code de Java leur appartenait. Libre à eux donc de l’offrir au monde entier sous GPL tout en le proposant à Apple sous une autre licence.

Mais pour les grands projets, comme VLC, qui acceptent des correctifs publics de la communauté depuis longtemps, il n’est pas envisageable d’obtenir la permission rétroactive de tous les contributeurs pour appliquer une licence double. D’autres projets, en revanche, sont proposés sous GPL mais n’ont jamais accepté de correctifs extérieurs, ce qui signifie que leur code est toujours sous le contrôle d’une seule et même personne ou entreprise. On peut citer l’exemple de Doom, qui est sur l’App Store. BeTrains en est un autre exemple et les développeurs ont récemment décrit comment ils arrivent à concilier GPL et App Store.

Doit-on modifier la GPL pour la rendre compatible avec l’App Store ?

Cette question ne relève plus du problème légal, mais plutôt de la politique des logiciels. Les défenseurs de la GPL adoptent souvent une attitude méfiante, ce qui est, à mes yeux, souvent perçu comme du fanatisme en dehors de la communauté Open Source. Mais pourtant, les violations de la GPL sont malheureusement courantes. Par exemple, une étude récente de Matthew Garret montre que parmi des centaines de tablettes Android, la quasi-totalité violent la GPL. En d’autres termes, les systèmes de tous ces fabricants s’appuyent à 99% sur du code libre mais contiennent 1% de leurs propres modifications. Ensuite ils les vendent comme s’ils étaient à l’origine de la totalité du système.

Il va sans dire que les développeurs qui ont participé à ces projets sur leur temps libre sont indignés par ces pratiques, c’est pourquoi ils condamnent aussi facilement tout ce qui ressemble de près ou de loin à une violation de la GPL. C’est souvent pris pour du fanatisme ou même de l’hostilité, mais au fond, c’est juste l’expression du dégoût de groupes de bénévoles face aux pratiques d’entreprises qui tentent de se faire de l’argent facile avec leur travail.

Sans oublier cette peur que tout signe d’indulgence fasse basculer les choses du mauvais côté, que cela encourage plus encore les entreprises à violer la GPL, et que la FSF, avec ses maigres ressources, n’ait plus les moyens d’identifier et de menacer les entreprises qui se comportent mal pour qu’elles respectent la communauté sur laquelle elles s’appuient.

Les règles de l’App Store doivent-elles changer pour être compatibles avec la GPL ?

C’est ce qu’aimeraient certains développeurs de VLC, comme Ross Finlayson. Plutôt que de voir VLC banni de l’App Store, ils préfèreraient que ses règles soient modifiées afin de créer une exception pour les applications sous GPL. Rien n’est impossible, mais Apple (pourtant bien enclin à piocher largement dans l’Open Source pour créer Mac OS X) n’est pas vraiment réputé pour son ouverture aux compromis lorsqu’on touche à l’App Store. Il y a très peu de chance qu’un tel changement arrive, surtout pour des applications gratuites qui ne rapportent rien à Apple.

Est-ce que VLC pourrait être publié sous une autre licence ?

Actuellement, il serait presque impossible que VLC puisse paraître sous une autre licence, même réservée uniquement à Applidium, car chaque développeur ayant travaillé sur le projet devrait donner son accord, ce qui n’est pas gagné pour certains, dont Denis-Courmont.

Si VLC n’avait jamais été publié sous GPL, ou plutôt, s’ils n’avaient jamais accepté de contributions extérieures placées sous GPL, alors il n’y aurait pas de problème. Mais sans la forte protection apportée par la GPL, ils n’auraient certainement pas attiré autant de contributeurs. Impossible de dire si le projet aurait abouti ou pas.

Conclusion

Lorsqu’un projet choisit une licence comme la GPL ou tout autre licence copyleft, en opposition à des licences plus ouvertes, comme la MIT ou la BSD, les développeurs veulent s’assurer que toutes les œuvres dérivées seront libres. Cette protection a cependant un prix. En choisissant la GPL, l’équipe de développement originelle de VLC a fait la promesse à tous ses futurs collaborateurs que leur travail resterait libre, pour toujours. Ce que dit ouvertement la FSF et ce que concède implicitement Apple, c’est que l’App Store ne reconnaît cette définition de la liberté. Aucune des deux organisations n’est réputée pour accepter des compromis, donc, jusqu’à ce que l’une d’entre eux cède, les applications construites sur du code sous GPL, comme VLC, n’honoreront pas l’App Store de leur présence. C’est dommage, c’est sûr, mais pour les deux camps c’est une question de principes bien plus importants que quelques applications.

Je finirai en m’adressant aux commentateurs : ce débat englobe bien d’autres aspects, certains que j’ai juste abordés, d’autres que j’ai complètement omis, parfois par souci de clarté ou encore par manque de compétence. Je vous demanderai donc simplement d’être indulgents car c’est un sujet complexe et même un article de cette longueur ne permet pas d’en faire le tour. Mais je vous en prie, débattez-en !

Notes

[1] Crédit photo : Chris Willis (Creative Commons By)




L’accueil, le Sud et la défense d’Internet : des défis majeurs à venir pour Wikipédia

Enokson - CC byL’extraordinaire encyclopédie libre Wikipédia a 10 ans et c’est naturellement l’occasion de faire des bilans.

Nous avons préféré ici nous projeter dans l’avenir en compagnie de Sue Gardner, à la tête de la Wikimedia Foundation depuis 2007 (dont Jimbo Wales en personne nous dit que le recrutement fut certainement « l’une des meilleures décisions que nous ayons jamais prise au cours de cette première décennie »).

L’accueil[1] et la diversification de nouveaux éditeurs, l’ouverture au monde et tout particulièrement vers « le Sud » et son utilisation croissante des terminaux mobiles, mais aussi l’inquiétude (ô combien partagée) de l’émergence de lois potentiellement liberticides pour Internet et de ce que pourrait faire ensemble les Wikipédiens pour le défendre, sont quelques uns des thèmes abordés ici.

Rendre Wikipédia plus accueillant : un véritable défi

The battle to make Wikipedia more welcoming

Olivia Solon – 10 janvier 2011 – Wired.co.uk
(Traduction Framalang : Olivier Rosseler, Martin et Goofy)

L’un des défis majeurs pour Wikipedia est d’étendre sa base de collaborateurs. Ce ne sont pas les volontaires qui manquent, le problème vient plutôt de l’accueil pas très chaleureux qui est réservé aux novices. Sue Gardner, directrice exécutive de la fondation Wikimédia, annonce des mesures pour y remédier, dans une interview donnée à Wired.co.uk.

Le profil du contributeur de Wikipédia moyen, pour sa version anglaise est le suivant : homme (88%), jeune (pas encore tout à fait trentenaire), féru de technique, disposant d’une bonne éducation et qui habite dans l’hémisphère nord. Pour cette raison, les centres d’intérêt de l’encyclopédie tournent plus autour de l’informatique, de l’astronomie ou de la culture populaire qu’autour de l’agriculture, de l’art au moyen-âge ou de la linguistique, par exemple.

Afin de corriger ce déséquilibre, et pour élargir sa base de contributeurs et la rendre plus représentative de la population mondiale, Wikipédia est sur le point de lancer une campagne d’accompagnement des novices pour leurs 100 premières éditions. Cela implique de se pencher sur l’ergonomie du site, mais il s’agit surtout de s’assurer que les contributeurs chevronnés se montrent plus accueillants pour les nouveaux éditeurs.

Sue Gardner, directrice générale (NdT : Executive Director) de la fondation Wikimedia, se confie à Wired.co.uk : « Les Wikipédiens ne se montrent pas toujours très compréhensifs avec les nouveaux arrivants qui ne maîtrisent pas encore tout à fait l’outil et les règles. On parle beaucoup de « septembre sans fin » (NdT : endless September) – un terme inventé par Dave Fisher pour décrire le débarquement annuel d’étudiants qui se créaient leur premier adresse mail aux débuts d’Internet – et lorsque je suis entrée chez Wikimédia, l’idée de recruter de nouveaux contributeurs rencontrait énormément de résistance. »

« Les contributeurs de Wikipédia veulent que l’encyclopédie soit de très bonne qualité, et ils ne voient donc pas forcément d’un bon œil l’arrivée de personnes qui n’en connaissent pas les valeurs et les processus de publication. Il n’y avait pas une bonne perception de ce que pouvaient apporter de nouveaux éditeurs. »

Les contributeurs mystérieux

Après deux ans de discussions internes, les choses sont en train de changer. Une évolution majeure a été réalisée quand des contributeurs expérimentés ont mené une expérience en se faisant passer pour des contributeurs anonymes pour voir comment leurs modifications étaient reçues. Ils ont pu constater qu’elles avaient été annulées ou supprimées même si leurs contributions étaient d’aussi bonne qualité que celles faites en leur nom. On ne prenait même, en général, pas la peine de leur expliquer pourquoi elles étaient effacées.


Gardner ajoute : « je pense que maintenant nous comprenons le problème, mais il nous reste à évaluer notre gestion des 100 premières contributions, qui sont si cruciales. ».

Ils projettent de modifier l’interface, pour la rendre plus accueillante, avec plus de messages encourageants. Contrairement à d’autres sites où le contenu est généré par les utilisateurs, Wikipédia a toujours évité de contacter ses utilisateurs par e-mail. Mais envoyer des messages comme « Untel a apporté des modifications à l’article que vous avez rédigé » ou « Vous avez édité cet article, peut-être voudriez-vous également éditer celui-ci » renforcerait peut-être l’adhésion au site des nouveaux utilisateurs.

Mais au-delà des modifications de l’interface, la communauté tente d’inciter ses contributeurs actifs à être plus accueillants. Le but est de les encourager à adopter le même comportement avec les anciens qu’avec les novices.

« On ne peut pas vous assurer de ne pas rencontrer de méchanceté sur Wikipédia, mais il nous faut encourager les discussions constructives, » nous dit Gardner.

L’un des plus gros défis de Wikimédia est d’encourager les contributions du « Sud » (au sens économique). Fruit d’une année de discussions collaboratives, la stratégie établie est de mettre l’accent sur les pays moins développés économiquement.

Actuellement, la version anglaise de Wikipédia compte le plus grand nombre d’articles (plus de 3 500 000), viennent ensuite la version allemande, puis la version française, avec plus d’un million d’articles chacune. On dénombre quasiment 300 versions de Wikipédia dans d’autres langues, qui affichent entre un et 750 000 articles. Il y a environ 67 000 articles en Hindi, 55 000 en Urdu et 21 000 en Swahili, par exemple.

2011 verra l’ouverture du premier bureau hors des États-Unis, en Inde. Ce sera la première initiative de « plusieurs tentatives d’incursion dans des parties du monde où les contributeurs et les utilisateurs potentiels sont nombreux, mais ces possibilités sont encore bridées » d’après Gardner. L’amérique latine et les pays arabophones sont les prochains sur la liste.

Wikipédia souhaite recruter de nouveaux éditeurs, mieux faire connaître ses besoins, faciliter techniquement l’édition et accélérer le site. L’idée est d’éviter que Wikipédia ne soit une encyclopédie rédigée par des gens uniquement dans les pays riches.

Pour corriger ce déséquilibre géographique, il faudra travailler sur l’énorme barrière que représente l’interface pour mobiles. Dans les pays en voie de développement, la majorité des personnes accède au Web grâce à leur mobile. Même si Wikipédia est optimisée pour être lue sur un téléphone portable, contribuer à l’encyclopédie à partir d’un mobile reste très difficile. Il y a bien une éditrice de la version indonésienne de Wikipédia qui y parvient grâce à un clavier externe connecté à son téléphone, mais « ça à l’air extrêmement laborieux », d’après Gardner.

Elle s’interroge : « La question préalable demeure : est-il possible de créer une interface d’édition ergonomique sur téléphone portable ? »

Une autre menace se fait de plus en plus sentir : l’instabilité des lois. Actuellement, aux États-Unis, Wikipédia est protégée des poursuites si un contributeur met en ligne quelque chose de diffamatoire par le Communications Decency Act. Sans ce régime de responsabilité favorable, il serait presque impossible pour Wikipédia de maintenir son modèle d’encyclopédie rédigée par les utilisateurs.

Gardner dit : « Nous devons sans cesse nous faire entendre pour définir ce qu’Internet doit être à nos yeux. Dans les premières années, le pouvoir législatif s’est contenté d’observer son développement, mais maintenant il veut de plus en plus avoir son mot à dire. »

Elle se dit inquiète des interventions de plus en plus fréquentes des gouvernements qui censurent le Web à l’échelle nationale, comme l’Australie qui a mis en place une liste noire des sites interdits à ses concitoyens ou encore comme le Royaume-Uni, en la personne de Ed Vaizey, qui demande aux fournisseurs d’accès de se montrer plus stricts sur le pornographie pour combattre l’exposition trop précoce des enfants au sexe (NdT : Elle aurait également pu citer la France avec sa loi LOPPSI 2 !).

« Au début, on pensait qu’Internet ne connaîtrait pas de frontières. Mais on se rend de plus en plus compte que d’un pays à l’autre, la manière de l’utiliser diffère fortement. J’aimerais vraiment que les Wikipédiens aient voix au chapitre sur ce point ». Elle cite l’expérience d’eBay Main Street Initiative, le volet « local » du site d’e-commerce qui informe les vendeurs des projets législatifs qui pourraient les concerner, comme modèle à imiter. Ils encouragent ainsi les vendeurs sur eBay à faire pression sur le gouvernement lorsque leurs intérêts sont menacés. Ils les incitent à écrire des lettres, à envoyer des e-mails ou encore à appeler leurs élus lors des débats importants.

« J’aimerais que les Wikipédiens s’engagent de cette manière afin d’influencer le développement d’Internet. » ajoute-t-elle.

À quoi donc ressemblera Wikipédia dans 10 ans ? « J’aimerais qu’elle soit plus complète, qu’elle soit plus dense. La version anglaise est vraiment impressionnante, mais la variété de son contenu réflète malheureusement la catégorie sociale prédominante des éditeurs. J’aimerais au contraire que, pour toutes les langues, le contenu bénéficie des connaissances et du savoir de toute la population. »

Notes

[1] Crédit photo : Enokson (Creative Commons By)




Wikipédia fête ses 10 ans !

C’est fou ça, demain 15 janvier 2011 « le plus beau projet du XXIe siècle » fête ses dix ans d’existence ! C’est si loin et si proche en même temps…

Wikipédia ne manque jamais de reconnaître ce qu’il doit au logiciel libre. Aujourd’hui la réciproque est tout aussi vraie.

Quant à nous, nous avons modestement mis à contribution nos traducteurs de Framalang pour sous-titrer ci-dessous l’annonce de son fondateur Jimbo Wales.

Bon anniversaire et grand merci, et plutôt dix fois qu’une !

—> La vidéo au format ogv
—> Le fichier de sous-titres

Transcript du sous-titrage

URL d’origine du document

Bonjour. Je m’appelle Jimmy Wales, je suis le fondateur de Wikipédia, et aujourd’hui, nous célébrons le dixième anniversaire de Wikipédia.

Difficile d’imaginer que cela fait déjà dix ans que j’ai lancé ce projet.

Je me rappelle le premier jour : j’ai cliqué sur « Modifier » et écrit « Bonjour le monde », et c’était le début de Wikipédia et de tout ce qui a suivi.

Désormais, nous avons des millions d’articles dans des centaines de langues. Environ 400 millions de personnes visitent le site chaque mois et c’est quelque chose de tout simplement stupéfiant. Si vous songez à l’impact sur notre culture, c’est renversant… et c’est entièrement grâce à vous.

Je veux remercier tous ceux qui ont aidé. Je veux remercier ceux qui ont édité Wikipédia, contribuant à cette formidable base de connaissances. Je veux remercier tous ceux qui consultent Wikipédia, qui se soucient des idées et de la connaissance.

Nous l’avons créée pour ça. Pour que vous l’utilisiez.

J’ai une petite requête à adresser à chacun de vous. Même si nous avons des millions d’articles, même si nous existons dans des centaines de langues, il reste beaucoup de travail à accomplir. C’est pourquoi j’aimerais que ceux qui n’y ont jamais contribué essayent. Cliquez sur « Modifier ». Vous voyez des erreurs ? Corrigez-les. Rien ne nous fait plus plaisir.

Et donc… Bon anniversaire Wikipédia.

Wikipédia : 10 années de partage de la somme de nos connaissances.




Qui veut être complice d’un concours à la con lancé par Microsoft à l’école ?

Alex Proimos - CC byLorsqu’un lecteur m’a signalé ce drôle de concours j’ai d’abord cru à un fake pour discréditer Microsoft tant cela me semblait gros. Et pourtant non, après vérification, ce projet existe bel et bien et le naïf c’est moi !

De quoi s’agit-il exactement ?

Le plus simple est d’en recopier ci-dessous les modalités qui se suffisent à elles-mêmes[1].

« Tout le monde connaît un enseignant. Allez à la rencontre de l’un d’entre eux. Vivez une expérience extraordinaire en classe, grâce à Microsoft.

Aujourd’hui nous proposons à notre communauté un nouvel appel à création très original pour Microsoft, qui vous lance un nouveau type de challenge, avec plus de 50 prix à gagner ! Une opportunité extraordinaire d’être mis en avant et de gagner une belle dotation grâce à eYeka !

Faites équipe avec un enseignant pour utiliser les Produits Microsoft dans sa classe et partagez votre histoire à travers un mini-documentaire vidéo (jusqu’à 3 mn de long), un montage de photos ou un PowerPoint en 3 parties : Découverte, Défi & résultats, Évaluation. »

La dotation globale est de 15 000 dollars dont 5 000 dollars pour la meilleure production.

eYeka est une société spécialisée dans le « marketing participatif ». Elle met « en relation » les marques avec les internautes « créateurs », en invitant ces derniers, avec promesses de rémunération à la clé, à faire des vidéos virales à la gloire de la marque dans le but de créer le buzz en faisant tourner ces vidéos dans les réseaux sociaux.

Au tout début de YouTube & co ces vidéos virales étaient spontanées et évidemment non rémunérées. Il en va tout autrement aujourd’hui, la fraîcheur a quasiment disparu et a laissé la place à un business florissant. Un business qui tente de continuer à faire croire que ces vidéos demeurent fraîches et spontanées parce que cela a plus d’impact sur un consommateur croyant encore souvent ne pas être en face d’une publicité classique.

Et c’est tout bénéfice pour la marque qui se retrouve en possession de vidéos produites par les autres pour un prix totalement dérisoire (ici 15 000 dollars) comparé au budget d’une publicité traditionnelle. Il y a bien possession parce qu’il va sans dire qu’en participant à de tels concours, vous cédez tous vos droits sur l’utilisation ultérieure de vos créations (en tout petit en bas du contrat). Et pas la peine de relever les prix, la crise mais surtout la culture actuelle de la surreprésentation du moi sur Internet faisant le reste.

Si l’on est un peu malin et que l’on jouit d’une situation favorable, on peut même proposer cela gratuitement aux internautes. J’en veux pour seul exemple cette spectaculaire vidéo Google à la gloire de Gmail.

Bon, ici, Microsoft ne possède ni la force du réseau Google ni son image positive. Elle a parfaitement conscience que rares seront les enseignants qui accepteront de se faire VRP Microsoft rien que pour ses beaux yeux. Alors elle doit s’y prendre autrement si elle veut pouvoir montrer qu’on utilise ses produits à l’école dans la joie et dans la bonne humeur, en passant donc par les services d’eYeka.

Bon courage ceci dit pour ce qui concerne les établissements scolaires publics français. Parce que l’on n’entre encore pas si facilement que cela dans les salles de classes, encore moins pour y filmer quelque chose, et encore encore moins si l’on se permet d’y filmer des élèves.

En tout cas, rendez-vous fin février pour la clôture du concours. Je suis bien curieux de voir si des collègues se seront effectivement livrés à cette mascarade commerciale sur un lieu de travail naguère associé à un sanctuaire.

Un exemple de plus qui révèle les difficultés croissantes de Microsoft à l’école. Un exemple de plus qui témoigne d’une époque en crise.

Ici comme ailleurs, un autre monde est possible. Celui du logiciel libre par exemple 😉

Source eYeka : l’annonce sur le blog et la page du concours.

Notes

[1] Crédit photo : Alex Proimos (Creative Commons By)




Geektionnerd : OpenBSD

Gee revient cette semaine sur l’affaire des portes dérobées découvertes dans le code d’OpenBSD, un systèmes d’exploitation libre réputé pour l’importance accordée, dans son développement, à la sécurité et à la cryptographie.

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

Crédit : Simon Gee Giraudot (Creative Commons By-Sa)




Ce que pensent les internautes de ce que pense Stallman sur le Cloud Computing

Diego da Silva - CC byLorsque Richard Stallman s’exprime, il ne laisse généralement pas la Toile indifférente. Ce qui se comprend aisément puisque, Microsoft, Apple, Facebook, Google…, il critique ouvertement et radicalement ce que tout le monde ou presque utilise au quotidien.

Son récent avis sur le Cloud Computing en général et Google Chrome OS en particulier dans un article du Guardian que nous venons de traduire ne déroge pas à la règle[1].

Jusqu’à donner l’idée à Katherine Noyes de compiler quelques interventions lues dans les commentaires de l’article ainsi que sur le célèbre site Slashdot. Avec ce terrible constat qui ouvre le billet et que je retourne en question aux lecteurs du Framablog : Pensez-vous que Stallman a perdu ?

Déluge de critiques de Stallman sur le Cloud : Prudence ou Paranoïa ?

Stallman’s Cloudburst: Prudence or Paranoia?

Katherine Noyes – 20 décembre 2010 – E-Commerce Times
Traduction Framalang : Olivier Rosseler)

« Je vais pouvoir annoncer à notre bon vieux RMS qu’il a perdu », nous dit hairyfeet, blogueur chez Slashdot. « La partie est terminée, l’ours a été tué et sa peau est depuis longtemps vendue. Regardez simplement avec quel enthousiasme les gens balancent tous les détails de leur vie sur Facebook, vous comprendrez qu’ils font peu de cas de leur vie privée tant que vous flattez leur ego surdimensionné. »

Quand Richard Stallman s’exprime, la communauté du logiciel libre écoute en général, on en a eu une nouvelle démonstration dans la blogosphère Linux la semaine passée.

C’est à l’occasion de la sortie de Chrome OS, le nouveau système d’exploitation de Google, que le fondateur de la Free Software Foundation a donné son avis, et, fidèle à ses principes, on peut dire qu’il ne nous a pas déçus.

La technologie peut « entraîner les gens à utiliser l’informatique imprudemment », confie Stallman au journal The Guardian, lorsqu’elle leur demande de confier leurs données aux nuages plutôt qu’à des machines dont ils ont le contrôle. Pour Stallman, une forte dépendance au nuage est même « pire que stupide. »

Voilà une opinion forte, à n’en pas douter, mais les réactions qui s’ensuivirent dans la blogosphère n’en furent pas moins fortes.


« Il a complétement raison »

Dans les commentaires ici même sur LinuxInsider, phatpingu qualifie les idées de Stallman d’étriquées. « Je trouve ça assez incroyable qu’il imagine que ces questions n’aient pas été soulevées et débattues en interne chez Google et qu’il pense qu’aucune mesure ou règle définissant la propriété des contenus n’ait été mise en place. »

amicus_curious, lui, oppose un avis plus neutre : « C’est toujours difficile de savoir si RMS se donne en spectacle ou s’il croit vraiment en ce qu’il dit. Mais Chrome OS et le nuage de Google n’ont pas grand-chose à craindre du mépris de Stallman. »

Puis il y a aussi ceux qui partagent ses idées. Parmi la centaine de commentaires qu’a reçus l’article du Guardian, blossiekins écrit : « Il a complètement raison. L’informatique dans les nuages ne fait qu’encourager l’ignorance et la nonchalance des utilisateurs vis-à-vis de leurs données et de ce qui en est fait. »

« Google n’est pas un joli Bisounours qui veut s’occuper de vos données simplement parce qu’il est gentil, il veut s’en occuper parce que ça lui apporte des informations », poursuit blossiekins. « Et plus les choses avancent, plus les risques font froid dans le dos. »

Depuis quelques jours, les arguments pro et anti Stallman résonnent dans la blogosphère, Linux Girl décida alors d’en savoir plus. L’impression dominante dans la blogosphère ne tarda pas à se faire entendre.

L’avantage des logiciels libres

« RMS a évidemment raison », d’après le blogueur Robert Pogson en réponse à Linux Girl, par exemple. « Pour utiliser Chrome, il faut faire confiance au nuage, ce qui est le cas de la plupart d’entre nous. »

Prenez, par exemple, Facebook, suggère Pogson.

« Des centaines de millions de personnes y passent des heures, malgré les innombrables problèmes de sécurité que le site a connus cette année », fait-il remarquer. « Des millions d’utilisateurs font confiance à Google et M$ aussi, mais je pense qu’ils le regretteront tôt ou tard. Je ferais bien plus confiance à un nuage construit avec des outils libres plutôt qu’à un trou noir. »

Pogson rappelle que le nuage a de gros avantages, économiquement parlant, principalement dus aux économies d’échelle dont peuvent bénéficier les grandes entreprises comme Google.

« Les particuliers comme les PME seront tentés d’externaliser leurs emails, leurs données, leurs sauvegardes et la gestion de leurs documents dans le nuage », prédit-il. « Je m’attends à une explosion du marché du nuage en 2011, ainsi que de celui des logiciels libres. Choisir des outils libres plutôt que ceux de M$ ou des solutions « maison » dans les nuages apportera des avantages. »

« La fin de la vie privée »

En effet, « ça me fait mal de l’avouer, vraiment, mais je suis d’accord avec RMS », commence hairyfeet, blogueur chez Slashdot. « Nous offrons les détails de nos vies entières à ces méga-entreprises, et le pire, c’est qu’en retour on ne reçoit rien, même pas un bonbon ou un rabais de 20% sur notre prochain achat. »

« C’est la raison pour laquelle j’ai changé de navigateur, pas pour Chrome ou même Chromium, mais pour Comodo Dragon, dont la philosophie est NE ME PISTEZ PAS », dit hairyfeet.

Malheureusement « Je peux dire à notre bon vieux RMS qu’il a perdu », poursuit-il. « La partie est terminée, l’ours a été tué et sa peau est depuis longtemps vendue. Regardez simplement avec quel enthousiasme les gens balancent tous les détails de leur vie sur Facebook, vous comprendrez qu’ils font peu de cas de leur vie privée tant que vous flattez leur ego surdimensionné. » Ils ne se rendent sûrement même pas compte « qu’une fois identifiés sur Facebook, ils sont reconnus par quasiment TOUS LES SITES, puisqu’ils sont presques tous interconnectés maintenant. En naviguant, ils laissent donc derrière eux des traces aussi visibles qu’un A380 partout où ils vont », ajoute-t-il.

Alors, « je suis désolé mon bon vieux hippie, mais c’est la fin de la vie privée, tuée par l’ego surdimensionné des gens », conclut hairyfeet.

« Le nuage ? Un effet de mode »

« Je pense que le nuage n’est qu’un effet de mode. On perd le contrôle de nos propres données, en espérant simplement que notre fournisseur fasse bien son boulot avec les sauvegardes », témoigne Gerhard Mack, consultant à Montréal et blogueur pour Slashdot. « Et que faire lorsque je n’ai pas accès à Internet ? ».

Et c’est vraiment « ce qui me gêne le plus avec mon téléphone sous Android », dit-il. « La plupart des applications ont besoin d’une connexion pour fonctionner, mais qu’est-ce que je peux faire si je suis dans une petite ville où j’arrive à peine à capter un réseau 2G et que j’ai besoin des indications du GPS ? Et si j’ai besoin de me servir du traducteur espagnol dans un sous-sol ? »

« C’est du vécu, et ça me laisse penser que le nuage a encore des fortes lacunes », conclut-il.

« Les petites lignes vous (en) privent »

« RMS a absolument raison à propos de l’informatique dans les nuages » acquiesce Barbara Hudson, blogueuse chez Slashdot, plus connue sous le pseudo de Tom sur le site. « Il faut être très attentif lorsqu’on sacrifie notre vie privée sur l’autel de la facilité. »

Les règles de partage de l’information de Gmail, par exemple, sont faites pour « protéger Google, pas pour vous protéger vous, si quelque chose se passe mal », nous explique Hudson. « Pour dire les choses autrement : ce que les grandes lignes vous offrent, les petits lignes vous en privent. »

Mais elle fait tout de même remarquer que Google a déjà, par le passé, refusé de partager avec le gouvernement ses historiques de recherche détaillés.

« Mais bien malin celui qui saura dire ce que nous réserve l’avenir. N’oublions pas que si le magazine Time n’a pas choisi Julien Assange comme personnalité de l’année, c’est, au moins en partie, par peur d’être placé sur la liste noire du gouvernement, aux côtés du New York Times ainsi que cinq autres journaux » dit Hudson.

« Je veux une garantie »

Il faut alors bien vous demander si « vous voulez vraiment que votre hébergeur dans les nuages et ses associés puissent exploiter vos projets commerciaux, vos feuilles de calcul et votre correspondance, professionnelle et personnelle », s’interroge Hudson. « Ou encore si vous désirez devenir la cible d’une perquisition demandée par votre ex-épouse ou par un tordu avec une idée derrière la tête? »


Elle conclut en disant que « Au moins, lorsqu’il s’agit de mon propre disque dur je peux encore dire : Il me faudrait un peu plus qu’une confiance raisonnable, il me faut une garantie ».

Notes

[1] Crédit photo : Diego da Silva (Creative Commons By)




Facebook, difficile de s’en défaire…

Réagissant au dernier billet du Framablog : Où est le bouton « J’aime pas » Facebook ?, Odysseus s’est fendu d’une figure entre fantastique et métaphore… [1]

Odysseus - Licence Art Libre

Notes

[1] Copyleft : cette œuvre est libre, vous pouvez la copier, la diffuser et la modifier selon les termes de la Licence Art Libre