Quand des partis pirates invitent l’Europe à réagir à l’affaire PRISM

Nous avons participé à la traduction d’un article co-signé par un certain nombre de partis pirates européens qui intime l’Europe à ne pas rester passive face à ce qu’il vient de se produire du côté de la NSA…

Anti PRISM

Anti PRISM

URL d’origine du document

(Traduction : Lgodard, Yoann, kenoris, zer0chain, AmarOk, Asta + anonymes)

Nous sommes consternés de découvrir une surveillance sans précédent des utilisateurs d’Internet de par le monde via PRISM et les programmes du même ordre. Des capacités de surveillance globale de telles sortes — tout particulièrement lorsqu’elles sont mises en œuvre sans accord des citoyens — sont une atteinte sérieuse aux Droits de l’Homme, à la liberté d’expression ainsi qu’à la vie privée, tous trois éléments fondateurs de nos démocraties.

Nous applaudissons Edward Snowden pour ses actions de dénonciation. Quand un gouvernement est réellement par le peuple et pour le peuple, on ne peut considérer comme un crime de diffuser des informations sur le but et l’étendue des actions que le gouvernement engage au nom de ces citoyens, dans le but revendiqué de les protéger. Un gouvernement représentatif dans une démocratie repose sur le consentement de son peuple. Cependant, un tel consentement ne peut exister lorsque les citoyens ne sont pas complètement informés.

Nous notons avec inquiétude l’absence totale de considération que le gouvernement américain montre pour les droits des citoyens européens et, plus généralement, à toute personne qui utilise les services de communication et infrastructures américains. Nous notons également l’effet négatif sur ses alliés, la souveraineté des pays concernés et la compétitivité de leurs entreprises.

L’Europe se doit de répondre à ces révélations avec la détermination nécessaire. À la lumière de ces informations, il devient nécessaire pour l’Union Européenne de ne pas rester complice de ces abus de pouvoir aux lourdes répercussions, et de s’élever au rang de pionner dans les domaines des droits numériques, de la protection de la vie privée, de la transparence gouvernementale et de la protection des lanceurs d’alertes.

Nous demandons :

1. Asile et Protection aux lanceurs d’alertes

Le gouvernement des USA a démontré – dans le cas de Bradley Manning et d’autres – que son traitement des lanceurs d’alertes est une cause de préoccupation grave. L’étiquetage public d’Edward Snowden qui apparaît comme un “traître” pour les différents responsables et les médias a créé un climat dans lequel il ne peut avoir droit à procès équitable. Il pourrait être le sujet de persécutions pour sa politique de gouvernement transparent, et sera certainement en danger de recevoir des peines ou des traitements inhumains ou dégradants, y compris la menace de la peine de mort.

Nous demandons à tous les gouvernements d’Europe de traiter avec bienveillance les demandes d’asile politique ou le statut de protection subsidiaires de M. Edward Snowden et d’autres lanceurs d’alertes, en faisant avancer rapidement d’éventuelles demandes de ce type.

2. Découvrir les faits

Il est inacceptable que des programmes secrets de surveillance contournent toute procédure démocratique et empêchent l’engagement critique et rationnel nécessaire à une démocratie pour déterminer si une action est justifiée ou non.

Nous appelons le Parlement Européen à constituer un comité d’investigation, en accord avec l’article 185 de ses règles de procédure. Les faits à établir et publier sont :

  • Quelles sont les véritables capacités de PRISM ?
  • Quels sont les flux de données et les sources qu’il utilise ?
  • Quels corps administratifs de l’UE et ses états membres ont eu connaissance ou accès à PRISM et aux programmes similaires, ou à des données issues de ces derniers ?
  • À quel point la Charte des Droits Fondamentaux, la Directive 95/46/CE sur la protection des données personnelles, la Directive du 12 juillet 2002 sur la protection de la vie privée dans le secteur des communications électroniques, ou d’autres lois européennes ont-elles été violées ?

Nous adressons cet appel à tous les parlements nationaux – afin de déterminer si les constitutions nationales, les lois de protection des données et les lois d’espionnage ont été violées.

3. Forte protection des données européennes

La proposition de loi General Data Protection Regulation en cours d’examen doit être renforcé afin d’assurer une protection plus large et plus profonde des données privées et professionnelles. Aux efforts de lobbying opposés il faut résister.

En particulier, les données des citoyens européens ne doivent pas être sciemment remises aux services d’espionnage des États-Unis d’Amérique. L’article 42 issu de la première fuite de proposition de loi, qui portait sur les mesures de protection des lois extra territoriales de pays tiers comme le Patriot Act ou encore le Foreign Intelligence Surveillance Act des USA en posant des barrières aux autorités étrangères lors de l’accès aux données européennes, doit être réintroduit. Les méta données ainsi que les pseudonymes doivent également être protégés.

D’après les principes de la “Sphère de sécurité” relatifs à la protection de la vie privée, les entreprises américaines doivent informer leurs clients lorsqu’elles permettent à des tiers d’accéder à leurs données. Il semble que les entreprises associées au programme PRISM ont violé ces dispositions. En conséquence, l’UE doit révoquer son accord à ces principes (décision n°2000/520/EC de la Commission), de telle sorte que les entreprises concernées soient soumises à la justice européenne si elles ne cessent pas ces pratiques immédiatement. La “Sphère de sécurité” doit soit être renégociée en intégrant des mesures de protection plus efficaces et plus de moyens de recours, soit être remplacée par un nouvel accord international sur la protection des données, par exemple basé sur la proposition de loi “General Data Protection Regulation”.

4. Traité international sur la Liberté sur Internet

Pour assurer qu’Internet reste une force d’autonomisation et de démocratisation plutôt que continuer d’être utilisé comme un outil limitant et réduisant la démocratie et la liberté individuelle, l’Union Européenne devrait être le fer de lance d’un traité international sur la Liberté sur Internet. Un tel traité devrait protéger fortement la confidentialité des communications, la liberté d’expression et l’accès à l’information (en particulier ce qui touche à l’Internet) ainsi que la neutralité du net.

5. Financement de logiciels respectueux de la vie privée

Afin de constituer une nouvelle ligne de défense de la vie privée, les utilisateurs doivent pouvoir choisir des logiciels et services qui respectent vraiment leur vie privée. De tels logiciels devraient garantir l’anonymat de leurs utilisateurs, offrir un système fort de chiffrement de bout-en-bout, des architectures pair-à-pair, la possibilté d’héberger soi-même ses données, un code source visible de tous, etc.

Nous nous réjouissons de voir que « protéger la vie privée et la liberté des internautes » fait partie des propositions soumises en ce moment au programme Horizon 2020. Nous demandons à l’Union Européenne, d’une part d’allouer une part bien plus significative des fonds de recherche à la diversification de l’offre logicielle qu’aux projets ayant le but contraire, par exemple le développement des outils de surveillance et d’exploration des données, et d’autre part de rejeter fermement des propositions dont le but explicite est la surveillance généralisée ne se basant sur aucune suspicion fondée.

6. Prévention contre un PRISM européen

Nous proposons des moyens législatifs visant à renforcer la défense contre les organismes similaires à travers toute l’Europe.

Les écoutes directes des agences gouvernementales des communications au cœur du réseau Internet — comme celles ayant été reportées comme installées par la NSA dans le cadre du programme BLARNEY — doivent être explicitement déclarées hors-la-loi. De telles écoutes autorisent le stockage et l’analyse de données de toutes les communications ayant lieu sur Internet, outrepassant toutes les procédures et contrôles existants, mettant ainsi en péril la confidentialité de toutes données et la vie privée de chacun. Porter atteinte à l’intégrité du réseau d’une manière aussi révoltante empêche tout un chacun de lui faire confiance, et nous prive de tous les points positifs que l’on peut y trouver.

Nous renouvelons donc notre appel pour la révocation de la directive sur la conservation des données. Les juridictions constitutionnelles tchèque, serbe et roumaine ont explicitement conclu que la collecte à grande échelle et sans suspicions de données personnelles est une violation fondamentale des droits de l’homme. Par la collecte généralisée de grandes quantités de données sans l’accord d’un tribunal, les programmes de conservation de données permettent au pouvoir exécutif d’outrepasser ses attributions au travers de plate-formes telles que PRISM, menaçant du même coup la séparation des pouvoirs exécutif et judiciaire, qui est le fondement de nos démocraties.




Quand la connaissance rencontre le Libre ça donne un livre exemplaire

Un livre sur la théorie homotopique des types vient d’être publié par des mathématiciens. A priori ça ne concerne que les spécialistes du sujet…

Et pourtant ça concerne tout le monde, tant sa conception originale et les leçons qui en sont tirées ci-dessous ont valeur d’exemplarité.

Du Libre à tous les étages (LaTeX, Creative Commons By-Sa…) mais surtout dans son état d’esprit de partage et de collaboration. Un projet et un article passionnants, à faire lire dans la sphère académique et bien au-delà.

Remarque : Pour commencer, on pourra voir cette courte vidéo « making-of » du livre.

Homotopy Type Theory - The team

Le livre HoTT

The HoTT book

Andrej Bauer – 20 juin 2013 – Blog personnel
(Traduction : Lgodard, Ilphrin, tcit, Guillaume, igor_d, Yaf, ronanov, fif + anonymes)

Le livre HoTT est terminé !

Depuis le printemps, et même avant, j’ai participé à un super effort collaboratif pour écrire un livre à propos de la Théorie homotopique des types (NdT : HoTT en anglais pour Homotopy Type Theory). Il est enfin terminé et accessible au public. Vous pouvez obtenir le livre librement et gratuitement. Mike Shulman a écrit à propos du contenu de ce livre, donc je ne vais pas répéter cela ici. À la place, je voudrais commenter les aspects socio-technologiques de la création du livre, et en particulier de ce que nous avons appris de la communauté open source sur la recherche collaborative.

Nous sommes un groupe de deux douzaines de mathématiciens qui avons écrit un livre de 600 pages en moins de 6 mois. C’est assez impressionnant, d’autant que les mathématiciens n’ont pas l’habitude de travailler ensemble au sein de grands groupes. Dans un petit groupe ils peuvent s’en sortir en utilisant des technologies obsolètes, comme envoyer aux autres un fichier source LaTeX par email, mais avec deux douzaines de personnes, même Dropbox ou n’importe quel autre système de synchronisation de fichier aurait échoué lamentablement. Par chance, beaucoup d’entre nous sont des chercheurs en Informatique déguisés en mathématiciens, donc nous savions comment attaquer les problèmes de logistique. Nous avons utilisé git et github.com.

Au début, il a fallu convaincre les gens, et se faire à l’outil. Malgré tout, cela n’a pas été trop difficile. À la fin, le dépôt sur le serveur n’était pas seulement une archive pour nos fichiers, mais également un point central pour notre planification et nos discussions. Durant plusieurs mois j’ai consulté GitHub plus souvent que mes emails ou Facebook. Github était mon Facebook (sans les petits chats mignons). Si vous ne connaissez rien aux outils comme git mais que vous écrivez des articles scientifiques (ou que vous créez n’importe quel type de contenu numérique) vous devriez vraiment, vraiment vous renseigner sur des systèmes de gestion de versions. Même en tant que seul auteur d’un article, vous allez gagner à apprendre comment en utiliser un, sans même parler des belles vidéos que vous pouvez produire sur la manière dont vous avez écrit votre papier.

Mais de manière plus importante, c’est l’esprit collaboratif qui imprégnait notre groupe à l’Institute for Advanced Study (Princeton) qui était incroyable. Nous ne nous sommes pas éparpillés. Nous avons discuté, partagé des idées, expliqué certains éléments les uns aux autres, et avons totalement oublié qui avait fait quoi (à tel point que nous avons dû faire des efforts pour reconstruire un historique de peur que ce ne soit oublié pour toujours). Le résultat final a été une augmentation considérable de notre productivité.

Il y a une leçon à en tirer (mis à part le fait que l’Institute for Advanced Study est évidemment le meilleur institut de recherche au monde), à savoir que les mathématiciens ont à gagner à devenir un peu moins possessifs vis-à-vis de leurs idées et leurs résultats. Je sais, je sais, une carrière académique dépend de la juste répartition des mérites de chacun et ainsi de suite, mais ce sont seulement les idiosyncrasies de notre époque. Si nous pouvons faire en sorte que les mathématiciens partagent des idées à moitié développées, ne s’inquiètent pas de savoir qui a apporté quelle contribution à un article, ou même qui en sont les auteurs, alors nous atteindrons un nouveau niveau de productivité encore jamais imaginé. Le progrès est le fait de ceux qui osent enfreindre les règles.

Les milieux de recherche vraiment ouverts ne peuvent être gênés par le copyright, les éditeurs qui s’accaparent le profit, les brevets, les secrets commerciaux, et les programmes de financement qui sont basés sur des outils de mesures de réussite défectueux. Malheureusement nous sommes tous coincés dans un système qui souffre de ces maux. Mais nous avons fait un premier pas dans la bonne direction en mettant le code source du livre disponible librement sous une licence permissive Creative Commons (la CC-By-Sa). N’importe qui peut prendre le livre et le modifier, nous envoyer des améliorations et des corrections, le traduire, ou même le vendre sans même nous donner le moindre sou (si cette dernière phrase vous a quelque peu crispé c’est que vous avez été conditionné par le système).

Homotopy Type Theory - Couverture

Nous avons décidé de ne pas faire publier le livre par un éditeur académique pour le moment car nous voulions qu’il soit accessible à tous, rapidement et sans frais. Le livre peut être téléchargé gratuitement, ou bien acheté à peu de frais avec une couverture rigide ou souple sur lulu.com (quand avez-vous pour la dernière fois payé moins de 30$ pour une monographie de 600 pages à couverture rigide ?). Une fois de plus, j’entends déjà certaines personnes dire : « oh mais un vrai éditeur universitaire est synonyme de qualité ». Cette façon de penser rappelle les arguments opposant Wikipédia et Britannica, et nous savons tous comment cette histoire s’est terminée. Oui, la bonne qualité de la recherche doit être assurée. Mais une fois que nous acceptons le fait que n’importe qui peut publier n’importe quoi sur Internet permettant au monde entier de le consulter et en faire un livre bon marché à l’air professionnel, nous réalisons rapidement que la censure n’est plus efficace. À la place, nous avons besoin d’un système décentralisé d’approbation qui ne pourrait pas être manipulé par des groupes d’intérêts spéciaux. Les choses sont en train de bouger dans cette direction, avec la création récente du Selected Papers Networks (Réseaux d’écrits sélectionnés) et d’autres projets similaires. J’espère qu’ils auront un bel avenir.

Cependant, il y a quelque chose d’autre que nous pouvons faire. C’est plus radical, mais aussi plus utile. Plutôt que de laisser les gens se contenter d’évaluer les articles, pourquoi ne pas leur donner une chance de participer et aussi d’améliorer ces articles ? Mettez tous vos articles sur GitHub et laissez les autres en discuter, poser des questions, les utiliser comme bases pour leur travail (fork), les améliorer, et vous envoyer des corrections. Est-ce que cela paraît fou? Bien sûr que oui, l‘open source paraissait également une idée folle lorsque Richard Stallman a lancé son manifeste. Soyons honnêtes, qui va vous voler votre code source LaTeX ? Il y a bien d’autres choses de valeur susceptibles d’être volées. Si vous êtes un professeur titulaire vous pouvez vous permettre d’ouvrir le chemin. Faites-vous enseigner git par vos thésards et mettez vos trucs dans un endroit public. N’ayez pas peur, ils vous ont titularisé pour que vous fassiez des choses comme ça.

Donc nous invitons tout le monde à améliorer le livre en participant sur GitHub. Vous pouvez laisser des commentaires, signaler des erreurs, et même mieux, faire des corrections par vous-même ! Nous n’allons pas nous inquiéter de savoir qui vous êtes et combien vous contribuez et qui devrait recevoir les honneurs. La seule chose qui importe est de savoir si vos contributions sont bonnes.

Ma dernière observation est à propos de la formalisation des mathématiques. Les mathématiciens aiment imaginer que leurs publications peuvent en principe être formalisées dans la Théorie des Ensembles. Ceci leur donne un sentiment de sécurité, qui n’est pas différente de celui ressenti par un croyant entrant dans une cathédrale d’âge canonique. C’est une forme de foi professée par les logiciens. La Théorie homotopique des types est un fondement alternatif à la Théorie des Ensembles. Nous revendiquons nous aussi que les mathématiques ordinaires peuvent en principe être formalisées en Théorie homotopique des types . Mais devinez quoi, vous n’avez pas à nous croire sur parole ! Nous avons formalisé les parties les plus complexes du livre HoTT et vérifié les preuves avec des assistants de preuve électroniques. Pas une fois mais deux. Et nous avons formalisé en premier lieu, puis nous avons écrit le livre car c’était plus simple de formaliser. Nous sommes gagnants sur tous les plans (s’il y a une compétition).

J’espère que le livre vous plaira, il contient une impressionnante quantité de mathématiques inédites.

Homotopy Type Theory - Tor




L’ADULLACT, l’AFUL et Framasoft soutiennent l’amendement limitant les racketiciels du groupe GDR défendu par Mme Fraysse

21/06/2013 18:20 (Dernière modification : 21/06/2013 19:51)

Dans le cadre du projet de loi relatif à la consommation, L’ADULLACT, l’AFUL et Framasoft apportent leur soutien, sans réserve, à l’amendement 711 déposé par le groupe GDR et défendu par Jacqueline Fraysse. Cet amendement va dans la bonne voie pour mettre un terme au scandale des racketiciels, c’est-à-dire à la vente forcée de logiciels non demandés lors de l’achat de matériel informatique.

Les associations du logiciel libre appellent donc tous les députés, de toute tendance politique, à soutenir vivement cet amendement !

Au dernier épisode…

À l’automne 2011, le gouvernement de François Fillon avait proposé un projet de loi de protection du consommateur. Plusieurs députés avaient proposé des amendements censés apporter une meilleure protection du consommateur face aux pratiques commerciales déloyales de vente forcée des logiciels inclus dans le matériel informatique. Comme l’AFUL l’avait souligné à l’époque, le remède était pire que le mal puisque après une lecture juridique attentive, ces textes aboutissaient à un résultat totalement opposé au but recherché.

Lors des débats, les députés avaient bien identifié les faiblesses juridiques des uns et la dangerosité des autres et avaient finalement laissé la législation en l’état afin de réfléchir à de meilleures rédactions pour la seconde lecture. Seconde lecture qui n’a jamais eu lieu suite au retrait du texte par le gouvernement.

Aujourd’hui, un nouveau projet de loi de consommation est présenté à la nouvelle législature. Forts de l’enseignement tiré des débats de 2011 et des arguments issus des divers bancs, le groupe Gauche démocrate et républicaine sous l’impulsion de Jacqueline Fraysse, députée de la 4e circonscription des Hauts-de-Seine, propose un amendement ayant pour objectif de mettre fin aux pratiques commerciales déloyales de l’informatique grand public, dans le respect de la législation européenne.

Analyse de l’amendement proposé

L’amendement propose d’ajouter des obligations d’informations à la charge des professionnels dans un nouvel article L. 113-7 (l’article L. 113-6 étant créé dans l’article 54 du projet de loi) du Code de la consommation.

Après l’article L. 113-6 du code de la consommation, est inséré un article L. 113-7 ainsi rédigé :

« Art. L. 113-7. – Le matériel informatique proposé à la vente avec des logiciels intégrés constitue une vente par lots. »

« Tout professionnel vendeur de matériel informatique fournissant des logiciels intégrés doit, avant tout paiement du prix par le consommateur, l’informer par voie d’affichage des caractéristiques essentielles et du prix public toutes taxes comprises du lot ainsi que du prix de chacun des logiciels composant individuellement le lot. L’indication de ces prix doit figurer sur la facture remise au consommateur. »

« La violation de ces dispositions entre dans le champ d’application de l’article L. 122-3. ».

Vente par lots

Tout d’abord, l’alinéa 1 aborde la question de la vente par lots en précisant désormais expressément que le matériel informatique vendu avec des logiciels préchargés constitue une vente par lots.

En effet, si la jurisprudence applique depuis longtemps ce principe (notamment depuis un arrêt de 2005 de la Cour de cassation), il est régulièrement contesté devant les tribunaux, forçant les consommateurs qui estent en justice à expliquer encore et toujours pourquoi matériel et logiciels constituent deux produits parfaitement distincts (l’un est un bien meuble, l’autre une prestation de services). En précisant désormais clairement qu’il s’agit d’une vente par lots, la réglementation spécifique à l’information due par les professionnels sur les lots, issue de l’article 7 de l’arrêté du 3 décembre 1987, s’appliquera.

Obligations d’information

L’alinéa 2 détaille les obligations d’information nécessaires : informer le consommateur par voie d’affichage des caractéristiques essentielles des produits proposés dans le lot.

Les caractéristiques essentielles sont l’ensemble des éléments permettant au consommateur d’effectuer un choix éclairé : par exemple, préciser que le matériel et les logiciels peuvent être vendus séparément, que les logiciels ne sont que des options non obligatoires ou encore que les logiciels fournis sont payants. S’agissant du prix des produits, il devra fait l’objet d’une information précise, non seulement pour le prix des produits composant le lot, mais également le prix de chacun des éléments du lot. La facture qui sera remise au consommateur comprendra donc le prix détaillé de tous les produits. Les procès initiés par les consommateurs ont mis en évidence que le prix des logiciels fournis préchargés, jusque là vendu de force, pouvaient représenter plus de 30 % du prix de la machine seule.

Sanctions

Le 3e alinéa aborde la question des sanctions. La directive 2005/29/CE du 11 mai 2005 rappelle, au paragraphe 29 de son annexe 1, que la vente forcée est une pratique commerciale déloyale « en toutes circonstances » c’est-à-dire qu’il suffit théoriquement à un juge de constater que le professionnel a exigé un paiement sans commande expresse et préalable du consommateur pour que la pratique soit déclarée déloyale. Cette disposition a été intégrée dans le Code de la consommation par les lois des 3 janvier et 4 août 2008. Les textes ont d’ailleurs été remaniés avec la loi Warsman de 2011 qui a proposé une lecture plus claire de l’article L. 122-3 du Code de la consommation. Cet article prévoit des sanctions civiles de nullité du contrat avec une obligation de remboursement, ainsi que des sanctions pénales. Le texte est donc parfaitement adapté à la situation et permet aux consommateurs d’agir autant par la voie civile que par la voie pénale et d’espérer avoir ainsi du poids face aux entreprises concernées, le plus souvent multinationales.

Voter ce texte malgré les pressions

C’est ce texte qui doit être favorisé et que les députés sont encouragés à adopter massivement. Il faut tout de même rappeler qu’à l’occasion du précédent projet de loi consommation de 2011, des députés s’étaient plaints des pressions qu’ils subissaient pour ne pas voter ces textes favorables aux consommateurs et le député de la 5e circonscription d’Isère, François BROTTES, avait clairement dénoncé cette situation inadmissible. Sous la présente législature, c’est aujourd’hui que se mesurera le courage politique et l’engagement des députés pour l’intérêt général.

L’intérêt général d’abord !

L’intérêt du consommateur et l’ouverture du marché à tous les acteurs, notamment français, étant la priorité des élus de la nation, nous sommes confiants dans le fait que l’ensemble des députés verront le point d’équilibre atteint par cet amendement et qu’ils le soutiendront unanimement.

Cyprien Gay, membre du groupe de travail « non aux racketiciels » de l’AFUL indique « Voilà 15 ans que nous interpellons les politiques de toutes tendances sur cette question. Depuis le début des années 2000 ce sujet est évoqué à l’Assemblée. Cependant, la pression des éditeurs qui bénéficient de cette vente forcée a réussi jusqu’ici à conserver un statu quo qui leur est favorable, avec la complicité inexplicable des divers gouvernements. »

Christophe Masutti, président de Framasoft, déclare « Il est est plus que nécessaire de clarifier les pratiques de vente liée qui maintiennent une tension évidente entre d’un côté le droit du consommateur à l’information et de l’autre côté le recours providentiel aux directives européennes qui empêche les États membres d’interdire les “offres conjointes” assimilées à une pratique commerciale comme une autre, bien que la “vente forcée” soit, elle, condamnable. Ceci constitue un frein artificiellement entretenu au déploiement du formidable potentiel compétitif du logiciel libre. »

Dimitri Robert, administrateur de l’AFUL souligne « Les logiciels vendus de force avec les matériels informatiques sont édités hors d’Europe par des entreprises réputées pour leur évasion fiscale et l’évitement à l’impôt sur leurs activités en France. Il n’y a donc aucun intérêt pour la France ou pour l’Europe d’entretenir leur rente sur le dos du consommateur Français. »

Également interrogé, l’avocat de l’AFUL, Maître Frédéric CUIF, estime que « Il s’agit d’un texte de consensus qui devrait à la fois permettre une meilleure information des consommateurs mais aussi leur offrir la possibilité de dénoncer moins difficilement ces pratiques commerciales déloyales devant les tribunaux. Bien sûr, il faudra toujours passer par un juge pour faire cesser la pratique commerciale déloyale de vente forcée, mais c’est un premier pas évident en faveur des consommateurs en attendant une véritable prise de conscience nationale sur la question. »

Laurent Séguin, président de l’AFUL conclut : « Il est temps de faire cesser cette situation de concurrence faussée où l’on impose, depuis trop longtemps, un choix uniforme aux consommateurs. Des acteurs européens et français portent d’ores et déjà des solutions concurrentes crédibles et innovantes, notamment sous licence libre, aux logiciels vendus de force avec du matériel informatique. Malheureusement, ces racketiciels les empêchent d’accéder au marché sur un pied d’égalité. Aujourd’hui, avec ces textes justes et équilibrés, les parlementaires ont l’opportunité de faire triompher enfin l’intérêt général en faisant en sorte qu’en France, les effets de ce hold-up planétaire soient amoindris. »

À propos de l’Adullact (http://adullact.org/)

Née fin 2002, l’Association des Développeurs et Utilisateurs de Logiciels Libres pour les Administrations et les Collectivités Territoriales s’est donnée pour tâche de constituer, développer et promouvoir un patrimoine commun de logiciels libres métiers, afin que l’argent public ne paie qu’une fois. L’Adullact dispose d’une équipe permanente, pour encourager et aider les membres à mutualiser leurs développements sur la forge adullact.net, qui compte aussi les projets de la forge admisource. Structure unique en son genre, l’Adullact était accréditée pour le Sommet Mondial de Tunis.

À propos de l’AFUL (http://aful.org/)

Association Francophone des Utilisateurs de Logiciels Libres, l’AFUL a pour principal objectif de promouvoir les logiciels libres ainsi que l’utilisation des standards ouverts. Ses membres, utilisateurs, professionnels du logiciel libre, entreprises ainsi que d’autres associations, sont issus d’une dizaine de pays ou de régions francophones (France, Belgique, Suisse, Afrique francophone, Québec).

Interlocuteur de nombreux médias, l’AFUL est présente sur nombre de salons, conférences et rencontres. Elle agit notamment activement contre la vente liée (site Non aux Racketiciels, comparatif bons-vendeurs-ordinateurs.info et bons-constructeurs-ordinateurs.info), pour l’interopérabilité (membre de l’AFNOR, participation aux référentiels d’interopérabilité et d’accessibilité de la DGME, site formats-ouverts.org, etc.), intervient sur les problématiques du droit d’auteur ainsi que pour la promotion de l’utilisation de logiciels et ressources pédagogiques libres pour l’éducation entendue au sens large.

À propos de Framasoft (http://framasoft.org/)

Issu du monde éducatif, Framasoft est un réseau d’éducation populaire consacré principalement au logiciel libre et s’organise en trois axes sur un mode collaboratif : promotion, diffusion et développement de logiciels libres, enrichissement de la culture libre et offre de services libres en ligne.  Pour plus d’informations, vous pouvez vous rendre sur le site Web à l’adresse suivante : http://www.framasoft.org/ et nous contacter par notre formulaire de contact http://contact.framasoft.org/

 

Contacts presse :

  • Laurent Séguin, président de l’AFUL, laurent.seguin@aful.org +33 (0)6 63 94 87 16
  • Me Frédéric Cuif, avocat au barreau de Poitiers, +33 (0)5 49 88 70 61
  • Cyprien Gay, membre GdT Racketiciel, cyprien.gay@aful.org +33 (0)6 61 89 49 82
  • Alexis Kauffmann, fondateur et chargé de mission Framasoft, aka@framasoft.org +33 (0)6 95 01 04 55
  • Relations presse – AFUL : presse@aful.org



Un peu de libre dans la formation des professeurs des écoles

Ces derniers mois de nombreux signes ministériels encouragent l’utilisation et la réalisation de logiciels et de ressources éducatives libres.

La circulaire Ayrault a montré la voie en septembre 2012. Le 10 juin dernier , Vincent Peillon a notamment annoncé la réalisation de ressources vidéos disponibles en « OpenData » (Attendons de voir quelle sera exactement cette licence). On peut évidemment regretter que la priorité aux logiciels libres et aux formats ouverts ait été retoquée dans le projet de loi d’orientation et de programmation pour la refondation de l’école de la République. Le contexte reste toutefois globalement positif.

Des FramaDVD École

Décréter l’utilisation de ressources libres c’est bien, mais, une décision ministérielle ne s’applique pas comme cela, d’un claquement de doigts. Il faut l’accompagner par des actions de formation des enseignants. Des académies entières, comme celle de Versailles et certains formateurs TICE, n’ont d’ailleurs pas attendu les récentes décisions politiques pour faire la promotion du libre dans leurs formations.

Framasoft a choisi de participer modestement à cet élan.

Ce matin, en Seine et Marne, une formation autour de l’utilisation des TICE était proposée aux tous nouveaux professeurs des écoles stagiaires, ceux qui viennent juste d’avoir leur concours et qui auront la responsabilité d’une classe dès l’année prochaine. Nous leur avons rapidement expliqué l’intérêt de ressources libres et un FramaDVD École ainsi qu’une plaquette présentant les principaux acteurs du libre pour l’école primaire leur ont été offerts.

Plaquette de ressources éducatives libres pour l'école primaire

Merci à M. Josselyn Bellicaud, Conseiller pédagogique TICE auprès de l’IENA et M. Jean-Charles POCHET, Inspecteur de l’Éducation Nationale TICE qui nous ont permis de réaliser ce temps d’information.




Les pages man de MySQL ne sont plus libres (bye bye GPL)

Edit : en fait c’était un bug (mais un bug troublant quand même). Fausse alerte donc, le contenu du billet ci-dessous n’est plus pertinent.

Quand on saute d’une version 5.5.30 à la 5.5.31, il ne se passe généralement pas grand chose mis à part quelques bugs fixés.

Sauf qu’ici on a décidé en catimini de changer la licence des pages man de MySQL et ce n’est pas très fair-play de la part de son propriétaire Oracle.

Heureusement qu’on a le fork MariaDB, d’où est d’ailleurs issue cette traduction.

MySQL Logo

Les pages man de MySQL changent discrètement de licence pour ne plus être sous GPL

MySQL man pages silently relicensed away from GPL

Colin Charles – 18 juin 2013 – MariaDB Blog
(Traduction : Lgodard, ehsavoie, Asta, rou, BastienLQ)

On nous a récemment rapporté que la licence des pages man de MySQL a été modifiée. Le changement a été fait en douce lors du passage de MySQL 5.5.30 à MySQL 5.5.31. Cela affecte toutes les pages du répertoire man/ du code source.

On peut voir que ces changements sont intervenus durant cette courte période (5.5.30->5.5.31). Les anciennes pages du manuel étaient publiées sous la licence suivante :

Cette documentation est un logiciel libre : vous pouvez la redistribuer et/ou la modifier uniquement sous les termes de la licence GNU GPLv2 telle que publiée par la Free Software Foundation.

Les nouvelles pages man (5.5.31 et ultérieures — toujours en vigueur pour 5.5.32) sont sous la licence suivante :

Ce logiciel et la documentation rattachée sont soumis à un accord de licence contenant des restrictions sur leur utilisation et leur divulgation et sont protégés par les lois sur la propriété intellectuelle. Sauf autorisation expresse dans cet accord de licence ou par la loi, vous ne pouvez pas utiliser, copier, reproduire, traduire, diffuser, modifier, changer de licence, transmettre, distribuer, exposer, publier ou montrer une quelconque partie, quelque soit sa forme ou les moyens utilisés. Il est interdit de faire de la rétroingénierie, désassembler ou décompiler ce logiciel, sauf si la loi le requiert pour l’interopérabilité…

Ce n’est clairement pas une marque d’affection pour MySQL de la part d’Oracle. La nouvelle licence est également devenue bien plus longue (en clair ce n’est pas sous licence GPL). Tandis que ce qui suit a été récupéré de l’outil resolveip, le copyright est le même pour toutes les pages man. Vous pouvez comparer la page man de la version 5.5.30 et celle de la version 5.5.31.

License man page MySQL




Prothèse de main : de dix mille à cent cinquante dollars grâce à l’impression 3D

Quand l’association de l’impression 3D et de l’esprit Libre donnent des choses extraordinaires…

Robohand - MakerBot

Des prothèses de main open source peuvent être imprimées en 3D pour 150$

Open Source Prosthetic Hand Can Be 3D Printed For $150

John Pugh – 26 mai 2013 – psfk.com
(Traduction : Goofy, Calou, nicolas, MatElGran, GPif, Asta, Pascal, audionuma)

Robohand est une main mécanique à bas coût qui peut être fabriquée avec une imprimante MakerBot3D.

Pour les patients souffrant d’une blessure traumatique ayant entraîné la perte d’un membre, ou les enfants nés avec un handicap tel que le syndrome des brides amniotiques (dont la conséquence est souvent que l’enfant naît avec un ou plusieurs doigts manquants), une nouvelle prothèse a le potentiel de changer littéralement leur vie quotidienne. Cependant, les technologies actuelles de prothèse sont très compliquées et onéreuses, pouvant coûter jusqu’à 10 000 $ pour une prothèse de doigt basique. Imaginez qu’au lieu d’avoir recours à des produits complexes et coûteux, nous puissions simplement imprimer une prothèse complète confortablement à la maison !

Robohand est une main mécanique qui peut être imprimée en 3D avec une imprimante MakerBot. À l’origine de l’idée, Richard Van As, un menuisier sud-africain qui a perdu quatre doigts lors d’un accident en 2011. Suite à cet accident, il commença à travailler avec le designer de mains mécaniques Ivan Owen (Seattle) pour concevoir un modèle de prothèse peu coûteux et capable de fonctionner aussi convenablement qu’une main ou que de doigts réels. Se basant sur leur concept, MakerBot a fait don d’une imprimante 3D Replicator 2 Desktop[1] à leur équipe, accélérant ainsi la création de prototypes fonctionnels, tout en réduisant les coûts de production.

Au total, le coût des pièces de la Robohand fabriquées avec l’imprimante MakerBot3D s’élève seulement à 2,50$ de matériel et on obtient une prothèse fonctionnelle complète, incluant le matériel non imprimable, pour environ 150$. En plus d’une économie importante, Van As a compris à quel point cette méthode lui permet d’affiner rapidement sa conception en fonction des besoins spécifiques d’un individu. Suite à la diffusion de son histoire, il a reçu des courriels et des messages sur Facebook de parents d’enfants atteints du syndrome des brides amniotiques voulant explorer le potentiel d’une conception par impression 3D. Cette technologie est d’autant plus décisive pour les enfants que leur croissance est rapide, ils nécessitent de multiples prothèses au cours de leur croissance. À la suite de ces conversations sur le réseau social, au moins trois enfants ont été sélectionnés et ont reçu leurs nouvelles mains.

Le projet est entièrement open source, ce qui signifie que n’importe qui ayant accès à une imprimante 3D peut télécharger le fichier de conception gratuitement et créer sa propre main robotique. Alors que ce projet est toujours en cours de finalisation, les équipements d’impression 3D montrent un vaste potentiel pour notre santé. En facilitant l’accès à tous et en réduisant fortement le coût de production, ces équipements vont permettre à des patients qui s’en sortent difficilement, du fait d’un manque d’accès aux prothèses, de pouvoir vivre un vie normale.

Notes

[1] À propos de cette nouvelle imprimante, et sans vouloir troller, on pourra lire : Polémique : la nouvelle imprimante 3D de MakerBot a-t-elle trahi l’open hardware ?




Le discours de Fleur Pellerin dans les nouveaux locaux Mozilla à Paris

Vibrante allocution en faveur du logiciel libre, la ministre Fleur Pellerin a prononcé un discours remarqué lors de l’inauguration des nouveaux locaux Mozilla le 13 juin dernier à Paris.

Ira-t-on plus loin que ses belles paroles ? Seront-elles véritablement suivies de faits et d’effets ?

Une vidéo tournée par Roberto Di Cosmo. et éditée par Stéfane Fermigier

Transcript

(Merci à Goofy, aKa, Z, Asta, Peekmo)

Madame la présidente, chère Mitchell, madame la vice-présidente, chère Debbie,

Mesdames et messieurs, il y a vingt ans un grand chercheur a, je le cite, « pris le principe d’hypertexte et l’a relié au principe du TCP et du DNS, et alors boom, ce fut le World Wide Web. »

Et en 1993, donc, le CERN, cet organisme de recherche européen qui avait inventé le Web a décidé de donner cette invention au monde, en la distribuant sous ce qu’on n’appelait pas encore une « licence libre ». Ce choix, anodin en apparence, a changé la face du monde.

Il y a 10 ans, la fondation Mozilla naissait et quelques mois plus tard, cher Tristan Nitot, vous fondiez sa branche européenne. J’imagine combien cela doit vous faire plaisir d’être ici 10 ans après, dans ce magnifique hôtel particulier du XVIIIe siècle, ancienne demeure de l’ambassadeur d’Autriche, m’avez-vous dit tout à l’heure. Mozilla Firefox, construit sur l’ancien Netscape, et œuvrant inlassablement pour promouvoir les standards du Web, a aussi changé le Web et par là la manière dont nous nous informons et dont nous innovons.

Je suis donc très fière d’inaugurer ce soir les nouveaux bureaux de la fondation Mozilla à Paris. Pourquoi être venue inaugurer ces nouveaux locaux ?

D’abord en raison des valeurs de la fondation Mozilla, et du logiciel libre. Ces valeurs, ce sont l’accès à la connaissance pour tous, la confiance ou encore l’amplification des aspects d’intérêt publics d’internet. Ce sont aussi les valeurs sociales qui portent un modèle de société vertueux, ouvert, participatif, où toute donnée est d’abord considérée comme un bien accessible au plus grand nombre, et une source de connaissances que chacun peut utiliser, améliorer, partager. Le logiciel libre, les formats ouverts, c’est enfin une communauté de personnes qui constitue un véritable patrimoine de connaissances qu’est le code, sans cesse inachevé, toujours à enrichir. Au-delà des innovations et des technologies permises par le Web, des acteurs comme Wikimedia ou la fondation Mozilla ont démontré que l’innovation et le progrès peuvent aussi passer par le partage, l’absence de propriété. C’est une victoire essentielle sur les esprits qui nous permet aujourd’hui d’avancer dans d’autres domaines : je pense à l’open innovation ou à l’open data. Je sais que Mozilla n’est pas une formation politique, mais toutes ces valeurs résonnent particulièrement doux à une ministre de gauche comme moi, et je pense que le monde politique a des choses à apprendre de cette réussite.

Par ailleurs le logiciel libre est aussi un atout décisif pour notre économie. À plus d’un titre il permet d’abord de lutter contre les phénomènes de dépendance technologique envers tous ces acteurs qui sont propriétaires de nos outils informatiques quotidiens, et est donc un véritable garant de la souveraineté numérique. De plus comme on le voit aujourd’hui, et contrairement à certaines idées reçues, le libre et l’open source sont créateurs d’emploi. Des modèles d’affaire originaux ont été créés et c’est un facteur important de productivité et de compétitivité pour les entreprises et les administrations. En effet elles peuvent ainsi mieux maîtriser leurs patrimoines respectifs et concentrer leurs efforts sur ce qui représente pour elles la valeur ajoutée. Enfin le logiciel libre remet en cause les rentes de situation, peu favorables à l’innovation, et par là-même aide à l’émergence de nouveaux champions économiques. L’émergence de Firefox et des navigateurs est emblématique de cette capacité.

La France est souvent citée comme un des pays les plus actifs au monde dans le domaine du logiciel libre. La croissance soutenue dans ce secteur le confirme. Les chiffres sont éloquents : ce marché représentait en 2011 plus de 2 milliards d’euros, soit plus de 6% de la demande de logiciels et de services informatiques. Par ailleurs, il y a là un formidable levier d’emplois, environ 10 000 supplémentaires dans les 3 ans à venir, si les estimations de croissance du marché sont confirmées. Bref, ce sont des enjeux extrêmement importants. La décision de Mozilla, un acteur mondial de référence sur le logiciel libre, de s’implanter dans ces locaux, confirme l’attractivité de Paris comme place incontournable du numérique. Elle confirme l’excellence des formations françaises dans le domaine informatique et je suis certaine que les développeurs du monde entier seront attirés par les conditions d’accueil ici, dans ces magnifiques locaux.

Mon objectif est bien sûr de renforcer encore ces atouts avec notamment le projet de quartiers numériques que nous allons créer dans une quinzaine de villes. Enfin, nous avons en France une communauté parmi les plus dynamiques dans le monde pour la conception et l’utilisation des logiciels libres, un atout à évidemment ne pas négliger. Avec les Assises de l’Entreprenariat, nous avons souhaité aller encore plus loin pour renforcer notre attractivité en mobilisant notamment toutes les compétences de France et d’ailleurs. C’est pour accompagner ce mouvement que le gouvernement travaille ardemment à la création d’un visa entrepreneur et d’un visa talent, car il est impératif d’attirer les talents créateurs du monde entier en leur offrant des conditions d’installation très rapides et simplifiées. Je dois aussi rappeler que le gouvernement prête une attention toute particulière à l’utilisation des logiciels libres. Par notre action nous visons à la renforcer. Le recours au logiciel libre est un levier d’action pour moderniser et rationaliser l’action publique.

Le Libre n’est pas toujours la bonne ou la seule solution mais la circulaire du Premier Ministre de septembre 2012 concernant l’utilisation des logiciels libres dans l’administration fixe une ligne claire sur les cas où ces types de logiciels doivent être privilégiés. Les atouts du logiciel libre sont notamment, je cite, « un moindre coût, une souplesse d’utilisation, et un levier de discussion avec les éditeurs ». Il s’agit là d’une avancée majeure pour le logiciel libre dans les systèmes d’information de l’État, qui permet d’engager de véritables politiques publiques en matière de logiciel libre et d’open source.

Pour conclure, je voudrais juste insister sur un point important que j’ai déjà évoqué mais que je tiens à marteler : l’open source est avant tout un vecteur d’innovation et de changement, un véritable gisement de productivité et de compétitivité pour les entreprises, et garantit la pérennité et l’indépendance de l’État. C’est pour cela que je souhaite que la France continue de jouer un rôle moteur dans le développement de ce secteur, et je suis sûre que la présence de Mozilla à Paris nous y aidera. J’ai parlé de 1993, de 2003, quoi de neuf en 2013 ? Cette année Mozilla lance son système d’exploitation pour mobiles et tablettes, Firefox OS, sur le même constat : promouvoir les formats ouverts et empêcher les systèmes fermés de contrôler notre environnement informatique. C’est une ambition un peu folle, mais probablement pas plus folle que de s’attaquer au marché des navigateurs qui était contrôlé à 95% par un seul acteur. Je vous souhaite donc le même succès que Firefox, et comme il sera en partie développé ici, je n’ai pas de doute sur la réussite de ce projet. Merci à tous.




Wikipédia face aux institutions, par Éric Bruillard

Éric Bruillard est professeur au STEF – ENS Cachan.

L’article ci-dessous reprend une présentation faite le 15 décembre 2012 lors des Rencontres Wikimédia, à l’université Paris Descartes.

Remarque : Vous pouvez également accéder directement à la version ODT et PDF du document.

Kalexanderson - CC by

Wikipédia face aux institutions

Éric Bruillard – décembre 2012

Introduction

Il y a cinq ans, en mars 2007, j’avais écrit un article intitulé « Wikipédia : la rejeter ou la domestiquer ». J’avançais l’idée, qui a souvent été mal comprise, que Wikipédia ne pouvait pas « avoir une présence reconnue dans l’enseignement en France, ses principes mêmes (neutralité) n’étant pas compatibles avec les valeurs de l’école laïque et républicaine française, valeurs qui conduisent à privilégier certains points de vue et à en interdire d’autres ». J’ajoutais que Wikipédia pouvait cependant avoir une place, d’une part comme projet encyclopédique avec des participations actives à ce projet, comme faire écrire des articles à des élèves, et, d’autre part, comme une encyclopédie à laquelle beaucoup auraient recours, dans une posture de consommateur.

Ces deux directions ont été effectivement suivies, et des utilisations constructives sont repérables dans l’enseignement secondaire ou supérieur, quoique la « consommation » est certainement beaucoup plus développée que la participation. Mais Wikipédia aurait-elle maintenant une présence reconnue dans l’éducation ?

Dans un premier temps, nous allons tenter de situer les discours généraux sur Wikipédia, notamment dans l’éducation nationale. Ensuite, nous verrons en quoi Wikipédia est maintenant une véritable institution, statut qui n’est pas sans poser de nouvelles questions. Enfin nous traiterons la question de l’évaluation des articles de cette encyclopédie : une évaluation interne s’est installée alors que l’évaluation externe ne semble pas beaucoup progresser : serait-ce révélateur de relations encore difficiles avec un projet collectif que l’on a toujours du mal à appréhender ?

Wikipédia : quoi de neuf depuis 2007 ?

Le premier constat que l’on peut faire, sans avoir spécialement besoin de l’étayer, est celui de la croissance impressionnante du projet Wikipédia : une présence très importante (notamment via Google), des utilisations qui se multiplient, notamment dans l’éducation, de nouveaux projets associés…

Pourtant, face à ce formidable déploiement, on s’aperçoit, notamment à travers le discours d’étudiants ou d’enseignants, d’une méconnaissance persistante du fonctionnement de Wikipédia, d’idées reçues tenaces, d’utilisations contestées, d’interrogations sur la fiabilité…

Wikipedia nous aide d’ailleurs à cerner ce que qu’est une idée reçue : « une opinion, située entre le stéréotype, le cliché et le lieu commun », précisant qu’elle a « la particularité de s’admettre aisément » parce qu’elle est « très répandue, que celui qui la transmet la considère très souvent comme évidemment démontrée ; elle est agréable à admettre, parce qu’elle répond (le plus souvent simplement) à une question redondante, ou gênante, ou complexe : elle aide à ne plus réfléchir et s’impose insidieusement ». Justement, un peu de réflexion s’impose.

Comme il est possible à n’importe qui de créer ou modifier le contenu d’un article, que ce n’est pas réservé à des spécialistes, il ne semble pas possible qu’il y ait des articles de qualité et on ne peut en aucun cas s’en remettre à Wikipédia. Ce discours de sagesse populaire continue à être très souvent énoncé. Prenons juste un seul exemple : “Wikipedia is a free, web-based, collaborative, multilingual encyclopedia project. Anybody is able to change, add or remove articles on Wikipedia. This of course is prone to many problems as some authors may be: biased, vandalise the article or write incorrect information.”

Les études comparatives qui ont été menées attestent du contraire et l’expérience quotidienne de nombre d’entre nous montre qu’on lui fait malgré tout confiance. Peu d’études nouvelles sont disponibles. La seule étude récente est intitulée Assessing the accuracy and quality of Wikipedia entries compared to popular online encyclopaedias A preliminary comparative study across disciplines in English, Spanish and Arabic. Mais les auteurs remercient la Wikimedia Foundation pour son soutien financier. D’autres institutions ne sont sans doute intéressées à financer une évaluation des articles de Wikipedia, préférant laisser planer le doute et les idées reçues.

Quelle présence officielle dans l’éducation ?

Si la neutralité de l’éducation nationale française l’invite à ne pas citer de marque ou de nom de produit dans ses programmes officiels, sauf exception, elle est conduite à veiller sur ce qui est proposé. Une recherche sur le site officiel Eduscol atteste de la présence de Wikipédia.

On trouve des revues de presse ; un dossier déjà ancien sur les usages pédagogiques ; des recommandations, des définitions issues de Wikipédia, le fait que Wikipedia offre une nouvelle fonctionnalité (l’exportation de pages au format epub, ce qui permet de constituer une sélection d’articles à consulter hors ligne sur une liseuse ou sur smartphone).

On trouve également référence à Wikipedia dans des sujets de bac, des ressources pour la résolution de problèmes, des dossiers pédagogiques… mais avec le plus souvent des modes de citation approximatifs (cf page 2 de ce document). Dans les ressources pour la classe terminale générale et technologique, Physique-chimie, Série S (Eduscol), on trouve 10 références à Wikipédia.

Ce bref tour d’horizon nous en apprend plus sur le système éducatif que sur Wikipédia. Cette dernière apparaît pratique et très utile, mais demeure un motif récurrent de complaintes, attestant des difficultés (ou de l’incapacité ?) du système éducatif à traiter les évolutions en cours sur les savoirs, leur diffusion, leur mise en question… Une utilisation parfois « honteuse », que l’on peut rapprocher des usages des calculatrices en collège il y a quelques années[1] : une sur utilisation, une maîtrise très diversifiée et un manque de formation des élèves. Au début du collège, utiliser la calculatrice est considéré comme une tricherie, il ne faudrait s’en servir que pour contrôler les résultats des opérations que l’on fait à la main. Mais dès la 4e, la tricherie est quelque sorte légalisée, notamment avec les fonctions trigonométriques, et ceux qui ont acquis une bonne maîtrise des calculatrices, sont alors avantagés. Le système éducatif prend peu en charge, voire pas du tout, la formation des élèves à cette maîtrise.

Wikipédia - Eduscol

Wikipédia dans le site Eduscol – 10 décembre 2012

Les objets informatiques spécifiques du système éducatif ne sont pas bien traités par Wikipédia. Ainsi, l’article ENT est encore une ébauche de piètre qualité. On retrouve une même ébauche, non signalée comme telle, sur l’expression « manuel numérique », page modifiée pour la dernière fois le 28 juin 2010[2]. C’est une version quasi « ministérielle » qui est proposée, la page « discussion » n’est pas ouverte et aucun article dans une autre langue n’est associé. Ce n’est toutefois par mieux en anglais où l’article “digital textbook” est une présentation du programme de ministère de l’éducation de Corée du Sud ! Les exemples sont coréens, avec des liens vers Toshiba et Fujitsu. Il s’agit d’un article sur le projet coréen, et pas sur l’initiative californienne par exemple.

Enfin, pour clore ce rapide tour d’horizon, un site de l’académie de Montpellier propose de « créer un manuel numérique à l’aide de Wikipédia ». Il est écrit : « Wikipédia est une excellente ressource pour construire un livre numérique dans le but d’explorer un sujet ou d’entamer une recherche documentaire. Pour inciter les étudiants à utiliser Wikipédia comme outil de départ plutôt que comme finalité d’une recherche, un enseignant peut facilement fournir à ses étudiants une collection d’articles de références sous la forme d’un livre numérique. Retrouvez les différentes étapes de création d’un livre numérique dans un mode opératoire mis à disposition sur le site “Prof Web”. »

Si on clique sur l’adresse indiquée, on retrouve le même paragraphe à la virgule près, puis un petit mode d’emploi. Tous les éléments sont présents : citation et même copié-collé. Un exemple mais avec la parapluie de la bonne pratique (il faut utiliser simplement comme point de départ). On se sert de Wikipedia mais d’une manière non risquée !!! On ne cherche pas à comprendre, mais à trouver une pratique que l’on considère légitime et que les autres ne pourront pas contester.

Cette méfiance persistante sur un projet maintenant très établi ne cache-t-elle pas des caractéristiques encore mal connues ou mal comprises. Et Wikipedia, s’il est encore regardé de travers par les institutions, ne serait-il pas aussi une institution ?

Wikipédia est une institution

En effet, pour la recherche, une simple interrogation sur Wikipedia dans Google Scholar produit de très nombreux résultats ; depuis 2011 : 45 700 résultats ; depuis 2012 : 23 100 résultats (à titre de comparaison, on obtient pour les mêmes dates concernant Britannica : 13100 / 7320). Dans les travaux auxquels on accède, il y a des études sur le fonctionnement même de Wikipédia : contenus, conflits, participation, etc. ; des outils pour Wikipédia.

Issus de son fonctionnement même, l’encyclopédie fournit des corpus très utiles pour les linguistes, notamment les paraphrases et modifications locales dans l’historique des révisions des articles, conduisant à améliorer les performances d’applications de TAL : traduction automatique, question-réponse, génération…

Encore plus intéressant, dans un processus d’institutionnalisation de Wikipédia, le projet Semanticpedia associe le ministère de la culture, l’INRIA et Wikimedia France. Cette collaboration vise à « réaliser des programmes de recherche et développement appliqués à des corpus ou des projets collaboratifs culturels, utilisant des données extraites des projets Wikimédia ». Il s’agit notamment de fournir des données culturelles accessibles à tous, dans une version Web sémantique structurée ; en gros devenir la référence pour la culture avec des modes d’interrogation très avancés dans des formes de déclaration sémantique.

Wikipédia est même vu comme un nouvel outil d’évaluation : une évaluation de la réputation ponctuelle, la fréquentation de Wikipédia étant considéré comme outil de mesure ; mais aussi, l’influence qu’une personne a sur un pays ou même sur une civilisation, qui pourrait être mesurée en fonction des liens menant à sa page Wikipédia.

Ainsi, Wikipédia est devenu outil de référence, même s’il s’en défend. C’est déjà un attracteur très puissant pour les recherches et, selon Kien Quach Tat[3] (2011), au Vietnam, Wikipédia est ce qui permet aux lycéens de valider une information trouvée sur un autre site.

Quelle implication du fait que Wikipédia est une institution ? Peut-on être en dehors de Wikipédia ? Comme elle devient la référence, peut-on continuer à l’ignorer, si une information nous concernant est fausse, peut-on encore traiter cela par le mépris ou l’absence de réaction n’est pas une sorte d’acquiescement ? En tous cas, si Wikipedia gère très efficacement les vandalismes, on sait qu’elle est mal armée pour lutter contre des organisations qui cherchent à imposer leur point de vue. Un projet d’émancipation ne s’est-il pas transformé en un instrument de domination ? On n’en est pas (encore) là ! Demeure une question clé : comment évaluer un article de Wikipédia ?

Comment évaluer un article de Wikipédia ?

En 2007, Wikipédia précisait qu’elle n’avait pas les moyens de juger de la crédibilité d’une information et que la fondation cherchait des solutions à cette absence de validation du contenu des articles, notamment « par l’ajout de systèmes de notation, d’identification des versions non vandalisées et par des collaborations avec des chercheurs et des enseignants » (Bruillard, 2007). Des avancées importantes ont été réalisées. Wikipédia évalue elle-même les articles qu’elle produit. Ainsi, l’article Projet :Évaluation est consacré à « déterminer l’état des articles de Wikipédia selon deux critères : leur importance et leur avancement ».

Mais quelle évaluation externe peut-on trouver ?

Quand on lance la requête « évaluation article Wikipédia », via Google, environ 16 900 000 de résultats (0,42 secondes) sont fournis. Mais la grande majorité de ces résultats correspondent à des articles de Wikipedia. La requête « évaluer un article de Wikipédia » -wikipedia.org ne donne aucun résultat. Enlever les guillemets dans la requête conduit à 8 040 000 résultats (0,19 secondes). Que trouve-t-on ?

D’abord des conseils, il s’agit d’évaluer le nombre et la qualité des sources, de consulter l’historique (combien de personnes y ont contribué, et quand), de consulter l’évaluation de l’article et surtout de le comparer à d’autres sources !

Le tutoriel Cerise propose d’autres conseils :

  • « Voir si le plan est bien construit et détaillé
  • Juger de la qualité de la rédaction : syntaxe, orthographe, synthèse, illustration, …
  • Repérer les liens vers les notes et les définitions
  • Voir s’il y a une bibliographie récente et mise à jour
  • Voir s’il y a un portail sur le thème sélectionné. »

Les guides de la BU de l’université de Rennes 2 dans une page sur « évaluer l’information » consacre un petit encart à Wikipédia en conseillant de regarder les avertissements sur les pages, la date de création (onglet “historique”) et les débats (onglet “discussion”). Cela renvoie à un article du Monde.fr et étrangemenent, aux évaluations internes de Wikipédia.

Sur la Teluq, Marc Couture, dans son cours sur l’évaluation de la crédibilité des documents en ligne, traite du cas particulier de « la crédibilité de Wikipédia ». Il constate que les critères généraux ne s’appliquent qu’imparfaitement aux articles de Wikipédia. Ainsi, ceux reliés à l’insertion dans la littérature spécialisée : « Ce critère prendra donc une valeur toute relative compte tenu à la fois du rôle que joue une encyclopédie dans la littérature scientifique ou savante, et de la difficulté à évaluer le nombre de références à un article de Wikipédia. » Les critères sur l’auteur ne sont pas applicables, les autres (la validation du contenu, forme et la structure du document) sont soit sans garantie soit réfèrent aux classements et processus internes de Wiipédia.

Cherchant dans les sources en anglais, on trouve de nouveau beaucoup de redondances, avec une référence citée, reprise, tronquée dans la Wikipedia anglaise. Un article intitulé Wikipedia:Researching with Wikipedia n’a pas d’équivalent en français avec la recommandation rituelle : “Wikipedia should be a starting place for research, not an end destination and independent confirmation of any fact presented is advised”.

Cet article fournit un lien avec une page sur l’évaluation des articles de Wikipédia, page que l’on retrouve ici (source Phoebe Ayers, en octobre 2006). En fait, ce texte donne tous les éléments pour évaluer un article, les autres sources n’en sont souvent qu’une reprise tronquée. Au bout du compte, c’est une source datée de 2006 (et qui est peut-être antérieure) qui donne les meilleures informations et fait le point le plus complet sur les modes d’évaluation des articles.

Mais est-ce que les procédures d’évaluation préconisées sont opérationnelles ? Autrement dit, peut-on appliquer ces processus dans des utilisations courantes, c’est-à-dire hors situations particulières (notamment scolaires) et de nécessités de vérification. On peut raisonnablement penser que non, si je m’en réfère à mes propres utilisations et ce que peuvent dire les étudiants. Qui confronte systématiquement ce qui est écrit dans un article de Wikipédia à d’autres sources ?

Ce que l’on peut regretter, c’est l’absence de cartographie thématique, alors que l’on imagine qu’il y a des zones de fiabilités différentes, des repérages a priori pourraient guider le lecteurs (les articles dans le domaine X sont plutôt fiables, alors que dans le domaine Y c’est problématique), des marques reconnaissables. Alors que l’on comprend qu’il faut consulter l’historique et les discussions, il y a peu d’outils de visualisation nous donnant une image interprétable ; en conséquence, historique et discussions restent très difficiles à analyser rapidement. En effet, il s’agit de prendre en compte la dynamique collective et temporelle et de pouvoir juger une ressource de par l’histoire de sa construction et des discussions qui l’ont accompagnée. Mais comment le faire rapidement et de manière fiable sans instrumentation. History Flows[4] proposait des visualisations intéressantes. Mais il ne semble pas que ce travail ait été repris et il demeure mal connu.

Des enjeux de formation : guider des consommateurs via des passeurs outillés

L’évaluation dépend bien évidemment dépend de la finalité, du public visé, etc. et on pourrait refuser une sorte d’évaluation intrinsèque des articles de Wikipédia. Mais le jugement sur cette qualité a des incidences fortes, notamment sur les représentations sociales de ce projet encyclopédique. Chacun a ses propres croyances sur Wikipédia, mais il n’y a pas de « sagesse collective » ou de connaissance collective nous en donnant une image moins naïve. Comment juger de la qualité ? On voit que la question est délicate : qualité proportionnelle ou inversement proportionnelle au nombre de contributeurs ; processus linéaire d’accroissement avec quelques accidents ou des formes de plateau, voire des régressions ? La qualité des collaborations aurait un effet sur la qualité des articles.

Selon une étude récente, les changements apportés pour assurer la qualité des articles, avec de nouveaux contributeurs nombreux, aurait un effet négatif sur le recrutement de ces nouveaux contributeurs découragés par les mécanismes mis en place. Ainsi, incontestablement, un processus de professionnalisation a été organisé, processus qui a un effet dissuasif. D’un autre côté, on s’aperçoit que les « consommateurs », rôle que nous prenons tous à un moment ou à un autre pour Wikipédia, ont du mal à sortir d’une vision très naïve et se satisfont d’une sorte de « bonne pratique » paravent : on n’utiliserait que pour commencer une recherche, on ne s’arrêterait jamais sur un article de Wikipédia. Comportement que très peu de personnes adoptent, sauf dans des contextes très particuliers. Alors que l’on propose des modèles à discuter de perméabilité entre concepteurs et consommateurs, on s’aperçoit que pour Wikipédia, il y a d’un côté des concepteurs très instrumentés et d’un autre côté des consommateurs très peu outillés. Entre les deux, on peut s’interroger sur les connaissances, les instruments pour les « médiateurs » (enseignants, documentalistes, etc.). Ne devraient-ils pas en savoir collectivement beaucoup plus que les « simples » utilisateurs ?

Wikipedia est un excellent analyseur des évolutions éducatives : un discours rituel sur la nécessité de développer des utilisations du « numérique », une présence effective mais comme une espèce de sous culture, acceptable parce qu’elle rend des services, pratique mais décriée. Wikipedia est une mine pour les chercheurs, c’est aussi un projet en avance dans le domaine de la culture et dans celui du Web sémantique. Mais comment maîtriser cette technologie collective ? On ne perçoit pas encore bien toutes les potentialités et limites de l’écriture collective. Une tension apparaît : si on apprend par l’écriture, des contraintes de forme trop fortes découragent, l’exigence de qualité risque de conduire à un élitisme par trop restrictif. Il faudrait professionnaliser les intermédiaires, afin de palier le manque d’instrumentation, notamment permettant de visualiser des processus de construction pour juger une production. La question de l’expertise des éducateurs se pose avec une certaine urgence. Pourquoi n’arrive pas à se développer un regard plus professionnel sur les productions de ce travail collectif ?

Crédit photo : Kalexanderson (Creative Commons By)

Notes

[1] Voir par exemple, Bruillard Éric (1994). Quelques obstacles à l’usage des calculettes à l’école : une analyse, Grand N, n°53, p. 67-78.

[2] Page consultée le 6 mars 2013

[3] Kien Quach Tat (2011).. Recherche d’information sur le web et moteurs de recherche : le cas des lycéens. Thèse soutenue le 16 décembre 2011 à l’ENS de Cachan

[4] Viégas Fernanda B., Wattenberg Martin, Dave Kushal (2004). Studying Cooperation and Conflict between Authors with history flow Visualizations. In CHI 2004, April 24–29, 2004, Vienna, Austria. ACM.