Quand la connaissance rencontre le Libre ça donne un livre exemplaire

Un livre sur la théorie homotopique des types vient d’être publié par des mathématiciens. A priori ça ne concerne que les spécialistes du sujet…

Et pourtant ça concerne tout le monde, tant sa conception originale et les leçons qui en sont tirées ci-dessous ont valeur d’exemplarité.

Du Libre à tous les étages (LaTeX, Creative Commons By-Sa…) mais surtout dans son état d’esprit de partage et de collaboration. Un projet et un article passionnants, à faire lire dans la sphère académique et bien au-delà.

Remarque : Pour commencer, on pourra voir cette courte vidéo « making-of » du livre.

Homotopy Type Theory - The team

Le livre HoTT

The HoTT book

Andrej Bauer – 20 juin 2013 – Blog personnel
(Traduction : Lgodard, Ilphrin, tcit, Guillaume, igor_d, Yaf, ronanov, fif + anonymes)

Le livre HoTT est terminé !

Depuis le printemps, et même avant, j’ai participé à un super effort collaboratif pour écrire un livre à propos de la Théorie homotopique des types (NdT : HoTT en anglais pour Homotopy Type Theory). Il est enfin terminé et accessible au public. Vous pouvez obtenir le livre librement et gratuitement. Mike Shulman a écrit à propos du contenu de ce livre, donc je ne vais pas répéter cela ici. À la place, je voudrais commenter les aspects socio-technologiques de la création du livre, et en particulier de ce que nous avons appris de la communauté open source sur la recherche collaborative.

Nous sommes un groupe de deux douzaines de mathématiciens qui avons écrit un livre de 600 pages en moins de 6 mois. C’est assez impressionnant, d’autant que les mathématiciens n’ont pas l’habitude de travailler ensemble au sein de grands groupes. Dans un petit groupe ils peuvent s’en sortir en utilisant des technologies obsolètes, comme envoyer aux autres un fichier source LaTeX par email, mais avec deux douzaines de personnes, même Dropbox ou n’importe quel autre système de synchronisation de fichier aurait échoué lamentablement. Par chance, beaucoup d’entre nous sont des chercheurs en Informatique déguisés en mathématiciens, donc nous savions comment attaquer les problèmes de logistique. Nous avons utilisé git et github.com.

Au début, il a fallu convaincre les gens, et se faire à l’outil. Malgré tout, cela n’a pas été trop difficile. À la fin, le dépôt sur le serveur n’était pas seulement une archive pour nos fichiers, mais également un point central pour notre planification et nos discussions. Durant plusieurs mois j’ai consulté GitHub plus souvent que mes emails ou Facebook. Github était mon Facebook (sans les petits chats mignons). Si vous ne connaissez rien aux outils comme git mais que vous écrivez des articles scientifiques (ou que vous créez n’importe quel type de contenu numérique) vous devriez vraiment, vraiment vous renseigner sur des systèmes de gestion de versions. Même en tant que seul auteur d’un article, vous allez gagner à apprendre comment en utiliser un, sans même parler des belles vidéos que vous pouvez produire sur la manière dont vous avez écrit votre papier.

Mais de manière plus importante, c’est l’esprit collaboratif qui imprégnait notre groupe à l’Institute for Advanced Study (Princeton) qui était incroyable. Nous ne nous sommes pas éparpillés. Nous avons discuté, partagé des idées, expliqué certains éléments les uns aux autres, et avons totalement oublié qui avait fait quoi (à tel point que nous avons dû faire des efforts pour reconstruire un historique de peur que ce ne soit oublié pour toujours). Le résultat final a été une augmentation considérable de notre productivité.

Il y a une leçon à en tirer (mis à part le fait que l’Institute for Advanced Study est évidemment le meilleur institut de recherche au monde), à savoir que les mathématiciens ont à gagner à devenir un peu moins possessifs vis-à-vis de leurs idées et leurs résultats. Je sais, je sais, une carrière académique dépend de la juste répartition des mérites de chacun et ainsi de suite, mais ce sont seulement les idiosyncrasies de notre époque. Si nous pouvons faire en sorte que les mathématiciens partagent des idées à moitié développées, ne s’inquiètent pas de savoir qui a apporté quelle contribution à un article, ou même qui en sont les auteurs, alors nous atteindrons un nouveau niveau de productivité encore jamais imaginé. Le progrès est le fait de ceux qui osent enfreindre les règles.

Les milieux de recherche vraiment ouverts ne peuvent être gênés par le copyright, les éditeurs qui s’accaparent le profit, les brevets, les secrets commerciaux, et les programmes de financement qui sont basés sur des outils de mesures de réussite défectueux. Malheureusement nous sommes tous coincés dans un système qui souffre de ces maux. Mais nous avons fait un premier pas dans la bonne direction en mettant le code source du livre disponible librement sous une licence permissive Creative Commons (la CC-By-Sa). N’importe qui peut prendre le livre et le modifier, nous envoyer des améliorations et des corrections, le traduire, ou même le vendre sans même nous donner le moindre sou (si cette dernière phrase vous a quelque peu crispé c’est que vous avez été conditionné par le système).

Homotopy Type Theory - Couverture

Nous avons décidé de ne pas faire publier le livre par un éditeur académique pour le moment car nous voulions qu’il soit accessible à tous, rapidement et sans frais. Le livre peut être téléchargé gratuitement, ou bien acheté à peu de frais avec une couverture rigide ou souple sur lulu.com (quand avez-vous pour la dernière fois payé moins de 30$ pour une monographie de 600 pages à couverture rigide ?). Une fois de plus, j’entends déjà certaines personnes dire : « oh mais un vrai éditeur universitaire est synonyme de qualité ». Cette façon de penser rappelle les arguments opposant Wikipédia et Britannica, et nous savons tous comment cette histoire s’est terminée. Oui, la bonne qualité de la recherche doit être assurée. Mais une fois que nous acceptons le fait que n’importe qui peut publier n’importe quoi sur Internet permettant au monde entier de le consulter et en faire un livre bon marché à l’air professionnel, nous réalisons rapidement que la censure n’est plus efficace. À la place, nous avons besoin d’un système décentralisé d’approbation qui ne pourrait pas être manipulé par des groupes d’intérêts spéciaux. Les choses sont en train de bouger dans cette direction, avec la création récente du Selected Papers Networks (Réseaux d’écrits sélectionnés) et d’autres projets similaires. J’espère qu’ils auront un bel avenir.

Cependant, il y a quelque chose d’autre que nous pouvons faire. C’est plus radical, mais aussi plus utile. Plutôt que de laisser les gens se contenter d’évaluer les articles, pourquoi ne pas leur donner une chance de participer et aussi d’améliorer ces articles ? Mettez tous vos articles sur GitHub et laissez les autres en discuter, poser des questions, les utiliser comme bases pour leur travail (fork), les améliorer, et vous envoyer des corrections. Est-ce que cela paraît fou? Bien sûr que oui, l‘open source paraissait également une idée folle lorsque Richard Stallman a lancé son manifeste. Soyons honnêtes, qui va vous voler votre code source LaTeX ? Il y a bien d’autres choses de valeur susceptibles d’être volées. Si vous êtes un professeur titulaire vous pouvez vous permettre d’ouvrir le chemin. Faites-vous enseigner git par vos thésards et mettez vos trucs dans un endroit public. N’ayez pas peur, ils vous ont titularisé pour que vous fassiez des choses comme ça.

Donc nous invitons tout le monde à améliorer le livre en participant sur GitHub. Vous pouvez laisser des commentaires, signaler des erreurs, et même mieux, faire des corrections par vous-même ! Nous n’allons pas nous inquiéter de savoir qui vous êtes et combien vous contribuez et qui devrait recevoir les honneurs. La seule chose qui importe est de savoir si vos contributions sont bonnes.

Ma dernière observation est à propos de la formalisation des mathématiques. Les mathématiciens aiment imaginer que leurs publications peuvent en principe être formalisées dans la Théorie des Ensembles. Ceci leur donne un sentiment de sécurité, qui n’est pas différente de celui ressenti par un croyant entrant dans une cathédrale d’âge canonique. C’est une forme de foi professée par les logiciens. La Théorie homotopique des types est un fondement alternatif à la Théorie des Ensembles. Nous revendiquons nous aussi que les mathématiques ordinaires peuvent en principe être formalisées en Théorie homotopique des types . Mais devinez quoi, vous n’avez pas à nous croire sur parole ! Nous avons formalisé les parties les plus complexes du livre HoTT et vérifié les preuves avec des assistants de preuve électroniques. Pas une fois mais deux. Et nous avons formalisé en premier lieu, puis nous avons écrit le livre car c’était plus simple de formaliser. Nous sommes gagnants sur tous les plans (s’il y a une compétition).

J’espère que le livre vous plaira, il contient une impressionnante quantité de mathématiques inédites.

Homotopy Type Theory - Tor




L’ADULLACT, l’AFUL et Framasoft soutiennent l’amendement limitant les racketiciels du groupe GDR défendu par Mme Fraysse

21/06/2013 18:20 (Dernière modification : 21/06/2013 19:51)

Dans le cadre du projet de loi relatif à la consommation, L’ADULLACT, l’AFUL et Framasoft apportent leur soutien, sans réserve, à l’amendement 711 déposé par le groupe GDR et défendu par Jacqueline Fraysse. Cet amendement va dans la bonne voie pour mettre un terme au scandale des racketiciels, c’est-à-dire à la vente forcée de logiciels non demandés lors de l’achat de matériel informatique.

Les associations du logiciel libre appellent donc tous les députés, de toute tendance politique, à soutenir vivement cet amendement !

Au dernier épisode…

À l’automne 2011, le gouvernement de François Fillon avait proposé un projet de loi de protection du consommateur. Plusieurs députés avaient proposé des amendements censés apporter une meilleure protection du consommateur face aux pratiques commerciales déloyales de vente forcée des logiciels inclus dans le matériel informatique. Comme l’AFUL l’avait souligné à l’époque, le remède était pire que le mal puisque après une lecture juridique attentive, ces textes aboutissaient à un résultat totalement opposé au but recherché.

Lors des débats, les députés avaient bien identifié les faiblesses juridiques des uns et la dangerosité des autres et avaient finalement laissé la législation en l’état afin de réfléchir à de meilleures rédactions pour la seconde lecture. Seconde lecture qui n’a jamais eu lieu suite au retrait du texte par le gouvernement.

Aujourd’hui, un nouveau projet de loi de consommation est présenté à la nouvelle législature. Forts de l’enseignement tiré des débats de 2011 et des arguments issus des divers bancs, le groupe Gauche démocrate et républicaine sous l’impulsion de Jacqueline Fraysse, députée de la 4e circonscription des Hauts-de-Seine, propose un amendement ayant pour objectif de mettre fin aux pratiques commerciales déloyales de l’informatique grand public, dans le respect de la législation européenne.

Analyse de l’amendement proposé

L’amendement propose d’ajouter des obligations d’informations à la charge des professionnels dans un nouvel article L. 113-7 (l’article L. 113-6 étant créé dans l’article 54 du projet de loi) du Code de la consommation.

Après l’article L. 113-6 du code de la consommation, est inséré un article L. 113-7 ainsi rédigé :

« Art. L. 113-7. – Le matériel informatique proposé à la vente avec des logiciels intégrés constitue une vente par lots. »

« Tout professionnel vendeur de matériel informatique fournissant des logiciels intégrés doit, avant tout paiement du prix par le consommateur, l’informer par voie d’affichage des caractéristiques essentielles et du prix public toutes taxes comprises du lot ainsi que du prix de chacun des logiciels composant individuellement le lot. L’indication de ces prix doit figurer sur la facture remise au consommateur. »

« La violation de ces dispositions entre dans le champ d’application de l’article L. 122-3. ».

Vente par lots

Tout d’abord, l’alinéa 1 aborde la question de la vente par lots en précisant désormais expressément que le matériel informatique vendu avec des logiciels préchargés constitue une vente par lots.

En effet, si la jurisprudence applique depuis longtemps ce principe (notamment depuis un arrêt de 2005 de la Cour de cassation), il est régulièrement contesté devant les tribunaux, forçant les consommateurs qui estent en justice à expliquer encore et toujours pourquoi matériel et logiciels constituent deux produits parfaitement distincts (l’un est un bien meuble, l’autre une prestation de services). En précisant désormais clairement qu’il s’agit d’une vente par lots, la réglementation spécifique à l’information due par les professionnels sur les lots, issue de l’article 7 de l’arrêté du 3 décembre 1987, s’appliquera.

Obligations d’information

L’alinéa 2 détaille les obligations d’information nécessaires : informer le consommateur par voie d’affichage des caractéristiques essentielles des produits proposés dans le lot.

Les caractéristiques essentielles sont l’ensemble des éléments permettant au consommateur d’effectuer un choix éclairé : par exemple, préciser que le matériel et les logiciels peuvent être vendus séparément, que les logiciels ne sont que des options non obligatoires ou encore que les logiciels fournis sont payants. S’agissant du prix des produits, il devra fait l’objet d’une information précise, non seulement pour le prix des produits composant le lot, mais également le prix de chacun des éléments du lot. La facture qui sera remise au consommateur comprendra donc le prix détaillé de tous les produits. Les procès initiés par les consommateurs ont mis en évidence que le prix des logiciels fournis préchargés, jusque là vendu de force, pouvaient représenter plus de 30 % du prix de la machine seule.

Sanctions

Le 3e alinéa aborde la question des sanctions. La directive 2005/29/CE du 11 mai 2005 rappelle, au paragraphe 29 de son annexe 1, que la vente forcée est une pratique commerciale déloyale « en toutes circonstances » c’est-à-dire qu’il suffit théoriquement à un juge de constater que le professionnel a exigé un paiement sans commande expresse et préalable du consommateur pour que la pratique soit déclarée déloyale. Cette disposition a été intégrée dans le Code de la consommation par les lois des 3 janvier et 4 août 2008. Les textes ont d’ailleurs été remaniés avec la loi Warsman de 2011 qui a proposé une lecture plus claire de l’article L. 122-3 du Code de la consommation. Cet article prévoit des sanctions civiles de nullité du contrat avec une obligation de remboursement, ainsi que des sanctions pénales. Le texte est donc parfaitement adapté à la situation et permet aux consommateurs d’agir autant par la voie civile que par la voie pénale et d’espérer avoir ainsi du poids face aux entreprises concernées, le plus souvent multinationales.

Voter ce texte malgré les pressions

C’est ce texte qui doit être favorisé et que les députés sont encouragés à adopter massivement. Il faut tout de même rappeler qu’à l’occasion du précédent projet de loi consommation de 2011, des députés s’étaient plaints des pressions qu’ils subissaient pour ne pas voter ces textes favorables aux consommateurs et le député de la 5e circonscription d’Isère, François BROTTES, avait clairement dénoncé cette situation inadmissible. Sous la présente législature, c’est aujourd’hui que se mesurera le courage politique et l’engagement des députés pour l’intérêt général.

L’intérêt général d’abord !

L’intérêt du consommateur et l’ouverture du marché à tous les acteurs, notamment français, étant la priorité des élus de la nation, nous sommes confiants dans le fait que l’ensemble des députés verront le point d’équilibre atteint par cet amendement et qu’ils le soutiendront unanimement.

Cyprien Gay, membre du groupe de travail « non aux racketiciels » de l’AFUL indique « Voilà 15 ans que nous interpellons les politiques de toutes tendances sur cette question. Depuis le début des années 2000 ce sujet est évoqué à l’Assemblée. Cependant, la pression des éditeurs qui bénéficient de cette vente forcée a réussi jusqu’ici à conserver un statu quo qui leur est favorable, avec la complicité inexplicable des divers gouvernements. »

Christophe Masutti, président de Framasoft, déclare « Il est est plus que nécessaire de clarifier les pratiques de vente liée qui maintiennent une tension évidente entre d’un côté le droit du consommateur à l’information et de l’autre côté le recours providentiel aux directives européennes qui empêche les États membres d’interdire les “offres conjointes” assimilées à une pratique commerciale comme une autre, bien que la “vente forcée” soit, elle, condamnable. Ceci constitue un frein artificiellement entretenu au déploiement du formidable potentiel compétitif du logiciel libre. »

Dimitri Robert, administrateur de l’AFUL souligne « Les logiciels vendus de force avec les matériels informatiques sont édités hors d’Europe par des entreprises réputées pour leur évasion fiscale et l’évitement à l’impôt sur leurs activités en France. Il n’y a donc aucun intérêt pour la France ou pour l’Europe d’entretenir leur rente sur le dos du consommateur Français. »

Également interrogé, l’avocat de l’AFUL, Maître Frédéric CUIF, estime que « Il s’agit d’un texte de consensus qui devrait à la fois permettre une meilleure information des consommateurs mais aussi leur offrir la possibilité de dénoncer moins difficilement ces pratiques commerciales déloyales devant les tribunaux. Bien sûr, il faudra toujours passer par un juge pour faire cesser la pratique commerciale déloyale de vente forcée, mais c’est un premier pas évident en faveur des consommateurs en attendant une véritable prise de conscience nationale sur la question. »

Laurent Séguin, président de l’AFUL conclut : « Il est temps de faire cesser cette situation de concurrence faussée où l’on impose, depuis trop longtemps, un choix uniforme aux consommateurs. Des acteurs européens et français portent d’ores et déjà des solutions concurrentes crédibles et innovantes, notamment sous licence libre, aux logiciels vendus de force avec du matériel informatique. Malheureusement, ces racketiciels les empêchent d’accéder au marché sur un pied d’égalité. Aujourd’hui, avec ces textes justes et équilibrés, les parlementaires ont l’opportunité de faire triompher enfin l’intérêt général en faisant en sorte qu’en France, les effets de ce hold-up planétaire soient amoindris. »

À propos de l’Adullact (http://adullact.org/)

Née fin 2002, l’Association des Développeurs et Utilisateurs de Logiciels Libres pour les Administrations et les Collectivités Territoriales s’est donnée pour tâche de constituer, développer et promouvoir un patrimoine commun de logiciels libres métiers, afin que l’argent public ne paie qu’une fois. L’Adullact dispose d’une équipe permanente, pour encourager et aider les membres à mutualiser leurs développements sur la forge adullact.net, qui compte aussi les projets de la forge admisource. Structure unique en son genre, l’Adullact était accréditée pour le Sommet Mondial de Tunis.

À propos de l’AFUL (http://aful.org/)

Association Francophone des Utilisateurs de Logiciels Libres, l’AFUL a pour principal objectif de promouvoir les logiciels libres ainsi que l’utilisation des standards ouverts. Ses membres, utilisateurs, professionnels du logiciel libre, entreprises ainsi que d’autres associations, sont issus d’une dizaine de pays ou de régions francophones (France, Belgique, Suisse, Afrique francophone, Québec).

Interlocuteur de nombreux médias, l’AFUL est présente sur nombre de salons, conférences et rencontres. Elle agit notamment activement contre la vente liée (site Non aux Racketiciels, comparatif bons-vendeurs-ordinateurs.info et bons-constructeurs-ordinateurs.info), pour l’interopérabilité (membre de l’AFNOR, participation aux référentiels d’interopérabilité et d’accessibilité de la DGME, site formats-ouverts.org, etc.), intervient sur les problématiques du droit d’auteur ainsi que pour la promotion de l’utilisation de logiciels et ressources pédagogiques libres pour l’éducation entendue au sens large.

À propos de Framasoft (http://framasoft.org/)

Issu du monde éducatif, Framasoft est un réseau d’éducation populaire consacré principalement au logiciel libre et s’organise en trois axes sur un mode collaboratif : promotion, diffusion et développement de logiciels libres, enrichissement de la culture libre et offre de services libres en ligne.  Pour plus d’informations, vous pouvez vous rendre sur le site Web à l’adresse suivante : http://www.framasoft.org/ et nous contacter par notre formulaire de contact http://contact.framasoft.org/

 

Contacts presse :

  • Laurent Séguin, président de l’AFUL, laurent.seguin@aful.org +33 (0)6 63 94 87 16
  • Me Frédéric Cuif, avocat au barreau de Poitiers, +33 (0)5 49 88 70 61
  • Cyprien Gay, membre GdT Racketiciel, cyprien.gay@aful.org +33 (0)6 61 89 49 82
  • Alexis Kauffmann, fondateur et chargé de mission Framasoft, aka@framasoft.org +33 (0)6 95 01 04 55
  • Relations presse – AFUL : presse@aful.org



Les pages man de MySQL ne sont plus libres (bye bye GPL)

Edit : en fait c’était un bug (mais un bug troublant quand même). Fausse alerte donc, le contenu du billet ci-dessous n’est plus pertinent.

Quand on saute d’une version 5.5.30 à la 5.5.31, il ne se passe généralement pas grand chose mis à part quelques bugs fixés.

Sauf qu’ici on a décidé en catimini de changer la licence des pages man de MySQL et ce n’est pas très fair-play de la part de son propriétaire Oracle.

Heureusement qu’on a le fork MariaDB, d’où est d’ailleurs issue cette traduction.

MySQL Logo

Les pages man de MySQL changent discrètement de licence pour ne plus être sous GPL

MySQL man pages silently relicensed away from GPL

Colin Charles – 18 juin 2013 – MariaDB Blog
(Traduction : Lgodard, ehsavoie, Asta, rou, BastienLQ)

On nous a récemment rapporté que la licence des pages man de MySQL a été modifiée. Le changement a été fait en douce lors du passage de MySQL 5.5.30 à MySQL 5.5.31. Cela affecte toutes les pages du répertoire man/ du code source.

On peut voir que ces changements sont intervenus durant cette courte période (5.5.30->5.5.31). Les anciennes pages du manuel étaient publiées sous la licence suivante :

Cette documentation est un logiciel libre : vous pouvez la redistribuer et/ou la modifier uniquement sous les termes de la licence GNU GPLv2 telle que publiée par la Free Software Foundation.

Les nouvelles pages man (5.5.31 et ultérieures — toujours en vigueur pour 5.5.32) sont sous la licence suivante :

Ce logiciel et la documentation rattachée sont soumis à un accord de licence contenant des restrictions sur leur utilisation et leur divulgation et sont protégés par les lois sur la propriété intellectuelle. Sauf autorisation expresse dans cet accord de licence ou par la loi, vous ne pouvez pas utiliser, copier, reproduire, traduire, diffuser, modifier, changer de licence, transmettre, distribuer, exposer, publier ou montrer une quelconque partie, quelque soit sa forme ou les moyens utilisés. Il est interdit de faire de la rétroingénierie, désassembler ou décompiler ce logiciel, sauf si la loi le requiert pour l’interopérabilité…

Ce n’est clairement pas une marque d’affection pour MySQL de la part d’Oracle. La nouvelle licence est également devenue bien plus longue (en clair ce n’est pas sous licence GPL). Tandis que ce qui suit a été récupéré de l’outil resolveip, le copyright est le même pour toutes les pages man. Vous pouvez comparer la page man de la version 5.5.30 et celle de la version 5.5.31.

License man page MySQL




Wikipédia face aux institutions, par Éric Bruillard

Éric Bruillard est professeur au STEF – ENS Cachan.

L’article ci-dessous reprend une présentation faite le 15 décembre 2012 lors des Rencontres Wikimédia, à l’université Paris Descartes.

Remarque : Vous pouvez également accéder directement à la version ODT et PDF du document.

Kalexanderson - CC by

Wikipédia face aux institutions

Éric Bruillard – décembre 2012

Introduction

Il y a cinq ans, en mars 2007, j’avais écrit un article intitulé « Wikipédia : la rejeter ou la domestiquer ». J’avançais l’idée, qui a souvent été mal comprise, que Wikipédia ne pouvait pas « avoir une présence reconnue dans l’enseignement en France, ses principes mêmes (neutralité) n’étant pas compatibles avec les valeurs de l’école laïque et républicaine française, valeurs qui conduisent à privilégier certains points de vue et à en interdire d’autres ». J’ajoutais que Wikipédia pouvait cependant avoir une place, d’une part comme projet encyclopédique avec des participations actives à ce projet, comme faire écrire des articles à des élèves, et, d’autre part, comme une encyclopédie à laquelle beaucoup auraient recours, dans une posture de consommateur.

Ces deux directions ont été effectivement suivies, et des utilisations constructives sont repérables dans l’enseignement secondaire ou supérieur, quoique la « consommation » est certainement beaucoup plus développée que la participation. Mais Wikipédia aurait-elle maintenant une présence reconnue dans l’éducation ?

Dans un premier temps, nous allons tenter de situer les discours généraux sur Wikipédia, notamment dans l’éducation nationale. Ensuite, nous verrons en quoi Wikipédia est maintenant une véritable institution, statut qui n’est pas sans poser de nouvelles questions. Enfin nous traiterons la question de l’évaluation des articles de cette encyclopédie : une évaluation interne s’est installée alors que l’évaluation externe ne semble pas beaucoup progresser : serait-ce révélateur de relations encore difficiles avec un projet collectif que l’on a toujours du mal à appréhender ?

Wikipédia : quoi de neuf depuis 2007 ?

Le premier constat que l’on peut faire, sans avoir spécialement besoin de l’étayer, est celui de la croissance impressionnante du projet Wikipédia : une présence très importante (notamment via Google), des utilisations qui se multiplient, notamment dans l’éducation, de nouveaux projets associés…

Pourtant, face à ce formidable déploiement, on s’aperçoit, notamment à travers le discours d’étudiants ou d’enseignants, d’une méconnaissance persistante du fonctionnement de Wikipédia, d’idées reçues tenaces, d’utilisations contestées, d’interrogations sur la fiabilité…

Wikipedia nous aide d’ailleurs à cerner ce que qu’est une idée reçue : « une opinion, située entre le stéréotype, le cliché et le lieu commun », précisant qu’elle a « la particularité de s’admettre aisément » parce qu’elle est « très répandue, que celui qui la transmet la considère très souvent comme évidemment démontrée ; elle est agréable à admettre, parce qu’elle répond (le plus souvent simplement) à une question redondante, ou gênante, ou complexe : elle aide à ne plus réfléchir et s’impose insidieusement ». Justement, un peu de réflexion s’impose.

Comme il est possible à n’importe qui de créer ou modifier le contenu d’un article, que ce n’est pas réservé à des spécialistes, il ne semble pas possible qu’il y ait des articles de qualité et on ne peut en aucun cas s’en remettre à Wikipédia. Ce discours de sagesse populaire continue à être très souvent énoncé. Prenons juste un seul exemple : “Wikipedia is a free, web-based, collaborative, multilingual encyclopedia project. Anybody is able to change, add or remove articles on Wikipedia. This of course is prone to many problems as some authors may be: biased, vandalise the article or write incorrect information.”

Les études comparatives qui ont été menées attestent du contraire et l’expérience quotidienne de nombre d’entre nous montre qu’on lui fait malgré tout confiance. Peu d’études nouvelles sont disponibles. La seule étude récente est intitulée Assessing the accuracy and quality of Wikipedia entries compared to popular online encyclopaedias A preliminary comparative study across disciplines in English, Spanish and Arabic. Mais les auteurs remercient la Wikimedia Foundation pour son soutien financier. D’autres institutions ne sont sans doute intéressées à financer une évaluation des articles de Wikipedia, préférant laisser planer le doute et les idées reçues.

Quelle présence officielle dans l’éducation ?

Si la neutralité de l’éducation nationale française l’invite à ne pas citer de marque ou de nom de produit dans ses programmes officiels, sauf exception, elle est conduite à veiller sur ce qui est proposé. Une recherche sur le site officiel Eduscol atteste de la présence de Wikipédia.

On trouve des revues de presse ; un dossier déjà ancien sur les usages pédagogiques ; des recommandations, des définitions issues de Wikipédia, le fait que Wikipedia offre une nouvelle fonctionnalité (l’exportation de pages au format epub, ce qui permet de constituer une sélection d’articles à consulter hors ligne sur une liseuse ou sur smartphone).

On trouve également référence à Wikipedia dans des sujets de bac, des ressources pour la résolution de problèmes, des dossiers pédagogiques… mais avec le plus souvent des modes de citation approximatifs (cf page 2 de ce document). Dans les ressources pour la classe terminale générale et technologique, Physique-chimie, Série S (Eduscol), on trouve 10 références à Wikipédia.

Ce bref tour d’horizon nous en apprend plus sur le système éducatif que sur Wikipédia. Cette dernière apparaît pratique et très utile, mais demeure un motif récurrent de complaintes, attestant des difficultés (ou de l’incapacité ?) du système éducatif à traiter les évolutions en cours sur les savoirs, leur diffusion, leur mise en question… Une utilisation parfois « honteuse », que l’on peut rapprocher des usages des calculatrices en collège il y a quelques années[1] : une sur utilisation, une maîtrise très diversifiée et un manque de formation des élèves. Au début du collège, utiliser la calculatrice est considéré comme une tricherie, il ne faudrait s’en servir que pour contrôler les résultats des opérations que l’on fait à la main. Mais dès la 4e, la tricherie est quelque sorte légalisée, notamment avec les fonctions trigonométriques, et ceux qui ont acquis une bonne maîtrise des calculatrices, sont alors avantagés. Le système éducatif prend peu en charge, voire pas du tout, la formation des élèves à cette maîtrise.

Wikipédia - Eduscol

Wikipédia dans le site Eduscol – 10 décembre 2012

Les objets informatiques spécifiques du système éducatif ne sont pas bien traités par Wikipédia. Ainsi, l’article ENT est encore une ébauche de piètre qualité. On retrouve une même ébauche, non signalée comme telle, sur l’expression « manuel numérique », page modifiée pour la dernière fois le 28 juin 2010[2]. C’est une version quasi « ministérielle » qui est proposée, la page « discussion » n’est pas ouverte et aucun article dans une autre langue n’est associé. Ce n’est toutefois par mieux en anglais où l’article “digital textbook” est une présentation du programme de ministère de l’éducation de Corée du Sud ! Les exemples sont coréens, avec des liens vers Toshiba et Fujitsu. Il s’agit d’un article sur le projet coréen, et pas sur l’initiative californienne par exemple.

Enfin, pour clore ce rapide tour d’horizon, un site de l’académie de Montpellier propose de « créer un manuel numérique à l’aide de Wikipédia ». Il est écrit : « Wikipédia est une excellente ressource pour construire un livre numérique dans le but d’explorer un sujet ou d’entamer une recherche documentaire. Pour inciter les étudiants à utiliser Wikipédia comme outil de départ plutôt que comme finalité d’une recherche, un enseignant peut facilement fournir à ses étudiants une collection d’articles de références sous la forme d’un livre numérique. Retrouvez les différentes étapes de création d’un livre numérique dans un mode opératoire mis à disposition sur le site “Prof Web”. »

Si on clique sur l’adresse indiquée, on retrouve le même paragraphe à la virgule près, puis un petit mode d’emploi. Tous les éléments sont présents : citation et même copié-collé. Un exemple mais avec la parapluie de la bonne pratique (il faut utiliser simplement comme point de départ). On se sert de Wikipedia mais d’une manière non risquée !!! On ne cherche pas à comprendre, mais à trouver une pratique que l’on considère légitime et que les autres ne pourront pas contester.

Cette méfiance persistante sur un projet maintenant très établi ne cache-t-elle pas des caractéristiques encore mal connues ou mal comprises. Et Wikipedia, s’il est encore regardé de travers par les institutions, ne serait-il pas aussi une institution ?

Wikipédia est une institution

En effet, pour la recherche, une simple interrogation sur Wikipedia dans Google Scholar produit de très nombreux résultats ; depuis 2011 : 45 700 résultats ; depuis 2012 : 23 100 résultats (à titre de comparaison, on obtient pour les mêmes dates concernant Britannica : 13100 / 7320). Dans les travaux auxquels on accède, il y a des études sur le fonctionnement même de Wikipédia : contenus, conflits, participation, etc. ; des outils pour Wikipédia.

Issus de son fonctionnement même, l’encyclopédie fournit des corpus très utiles pour les linguistes, notamment les paraphrases et modifications locales dans l’historique des révisions des articles, conduisant à améliorer les performances d’applications de TAL : traduction automatique, question-réponse, génération…

Encore plus intéressant, dans un processus d’institutionnalisation de Wikipédia, le projet Semanticpedia associe le ministère de la culture, l’INRIA et Wikimedia France. Cette collaboration vise à « réaliser des programmes de recherche et développement appliqués à des corpus ou des projets collaboratifs culturels, utilisant des données extraites des projets Wikimédia ». Il s’agit notamment de fournir des données culturelles accessibles à tous, dans une version Web sémantique structurée ; en gros devenir la référence pour la culture avec des modes d’interrogation très avancés dans des formes de déclaration sémantique.

Wikipédia est même vu comme un nouvel outil d’évaluation : une évaluation de la réputation ponctuelle, la fréquentation de Wikipédia étant considéré comme outil de mesure ; mais aussi, l’influence qu’une personne a sur un pays ou même sur une civilisation, qui pourrait être mesurée en fonction des liens menant à sa page Wikipédia.

Ainsi, Wikipédia est devenu outil de référence, même s’il s’en défend. C’est déjà un attracteur très puissant pour les recherches et, selon Kien Quach Tat[3] (2011), au Vietnam, Wikipédia est ce qui permet aux lycéens de valider une information trouvée sur un autre site.

Quelle implication du fait que Wikipédia est une institution ? Peut-on être en dehors de Wikipédia ? Comme elle devient la référence, peut-on continuer à l’ignorer, si une information nous concernant est fausse, peut-on encore traiter cela par le mépris ou l’absence de réaction n’est pas une sorte d’acquiescement ? En tous cas, si Wikipedia gère très efficacement les vandalismes, on sait qu’elle est mal armée pour lutter contre des organisations qui cherchent à imposer leur point de vue. Un projet d’émancipation ne s’est-il pas transformé en un instrument de domination ? On n’en est pas (encore) là ! Demeure une question clé : comment évaluer un article de Wikipédia ?

Comment évaluer un article de Wikipédia ?

En 2007, Wikipédia précisait qu’elle n’avait pas les moyens de juger de la crédibilité d’une information et que la fondation cherchait des solutions à cette absence de validation du contenu des articles, notamment « par l’ajout de systèmes de notation, d’identification des versions non vandalisées et par des collaborations avec des chercheurs et des enseignants » (Bruillard, 2007). Des avancées importantes ont été réalisées. Wikipédia évalue elle-même les articles qu’elle produit. Ainsi, l’article Projet :Évaluation est consacré à « déterminer l’état des articles de Wikipédia selon deux critères : leur importance et leur avancement ».

Mais quelle évaluation externe peut-on trouver ?

Quand on lance la requête « évaluation article Wikipédia », via Google, environ 16 900 000 de résultats (0,42 secondes) sont fournis. Mais la grande majorité de ces résultats correspondent à des articles de Wikipedia. La requête « évaluer un article de Wikipédia » -wikipedia.org ne donne aucun résultat. Enlever les guillemets dans la requête conduit à 8 040 000 résultats (0,19 secondes). Que trouve-t-on ?

D’abord des conseils, il s’agit d’évaluer le nombre et la qualité des sources, de consulter l’historique (combien de personnes y ont contribué, et quand), de consulter l’évaluation de l’article et surtout de le comparer à d’autres sources !

Le tutoriel Cerise propose d’autres conseils :

  • « Voir si le plan est bien construit et détaillé
  • Juger de la qualité de la rédaction : syntaxe, orthographe, synthèse, illustration, …
  • Repérer les liens vers les notes et les définitions
  • Voir s’il y a une bibliographie récente et mise à jour
  • Voir s’il y a un portail sur le thème sélectionné. »

Les guides de la BU de l’université de Rennes 2 dans une page sur « évaluer l’information » consacre un petit encart à Wikipédia en conseillant de regarder les avertissements sur les pages, la date de création (onglet “historique”) et les débats (onglet “discussion”). Cela renvoie à un article du Monde.fr et étrangemenent, aux évaluations internes de Wikipédia.

Sur la Teluq, Marc Couture, dans son cours sur l’évaluation de la crédibilité des documents en ligne, traite du cas particulier de « la crédibilité de Wikipédia ». Il constate que les critères généraux ne s’appliquent qu’imparfaitement aux articles de Wikipédia. Ainsi, ceux reliés à l’insertion dans la littérature spécialisée : « Ce critère prendra donc une valeur toute relative compte tenu à la fois du rôle que joue une encyclopédie dans la littérature scientifique ou savante, et de la difficulté à évaluer le nombre de références à un article de Wikipédia. » Les critères sur l’auteur ne sont pas applicables, les autres (la validation du contenu, forme et la structure du document) sont soit sans garantie soit réfèrent aux classements et processus internes de Wiipédia.

Cherchant dans les sources en anglais, on trouve de nouveau beaucoup de redondances, avec une référence citée, reprise, tronquée dans la Wikipedia anglaise. Un article intitulé Wikipedia:Researching with Wikipedia n’a pas d’équivalent en français avec la recommandation rituelle : “Wikipedia should be a starting place for research, not an end destination and independent confirmation of any fact presented is advised”.

Cet article fournit un lien avec une page sur l’évaluation des articles de Wikipédia, page que l’on retrouve ici (source Phoebe Ayers, en octobre 2006). En fait, ce texte donne tous les éléments pour évaluer un article, les autres sources n’en sont souvent qu’une reprise tronquée. Au bout du compte, c’est une source datée de 2006 (et qui est peut-être antérieure) qui donne les meilleures informations et fait le point le plus complet sur les modes d’évaluation des articles.

Mais est-ce que les procédures d’évaluation préconisées sont opérationnelles ? Autrement dit, peut-on appliquer ces processus dans des utilisations courantes, c’est-à-dire hors situations particulières (notamment scolaires) et de nécessités de vérification. On peut raisonnablement penser que non, si je m’en réfère à mes propres utilisations et ce que peuvent dire les étudiants. Qui confronte systématiquement ce qui est écrit dans un article de Wikipédia à d’autres sources ?

Ce que l’on peut regretter, c’est l’absence de cartographie thématique, alors que l’on imagine qu’il y a des zones de fiabilités différentes, des repérages a priori pourraient guider le lecteurs (les articles dans le domaine X sont plutôt fiables, alors que dans le domaine Y c’est problématique), des marques reconnaissables. Alors que l’on comprend qu’il faut consulter l’historique et les discussions, il y a peu d’outils de visualisation nous donnant une image interprétable ; en conséquence, historique et discussions restent très difficiles à analyser rapidement. En effet, il s’agit de prendre en compte la dynamique collective et temporelle et de pouvoir juger une ressource de par l’histoire de sa construction et des discussions qui l’ont accompagnée. Mais comment le faire rapidement et de manière fiable sans instrumentation. History Flows[4] proposait des visualisations intéressantes. Mais il ne semble pas que ce travail ait été repris et il demeure mal connu.

Des enjeux de formation : guider des consommateurs via des passeurs outillés

L’évaluation dépend bien évidemment dépend de la finalité, du public visé, etc. et on pourrait refuser une sorte d’évaluation intrinsèque des articles de Wikipédia. Mais le jugement sur cette qualité a des incidences fortes, notamment sur les représentations sociales de ce projet encyclopédique. Chacun a ses propres croyances sur Wikipédia, mais il n’y a pas de « sagesse collective » ou de connaissance collective nous en donnant une image moins naïve. Comment juger de la qualité ? On voit que la question est délicate : qualité proportionnelle ou inversement proportionnelle au nombre de contributeurs ; processus linéaire d’accroissement avec quelques accidents ou des formes de plateau, voire des régressions ? La qualité des collaborations aurait un effet sur la qualité des articles.

Selon une étude récente, les changements apportés pour assurer la qualité des articles, avec de nouveaux contributeurs nombreux, aurait un effet négatif sur le recrutement de ces nouveaux contributeurs découragés par les mécanismes mis en place. Ainsi, incontestablement, un processus de professionnalisation a été organisé, processus qui a un effet dissuasif. D’un autre côté, on s’aperçoit que les « consommateurs », rôle que nous prenons tous à un moment ou à un autre pour Wikipédia, ont du mal à sortir d’une vision très naïve et se satisfont d’une sorte de « bonne pratique » paravent : on n’utiliserait que pour commencer une recherche, on ne s’arrêterait jamais sur un article de Wikipédia. Comportement que très peu de personnes adoptent, sauf dans des contextes très particuliers. Alors que l’on propose des modèles à discuter de perméabilité entre concepteurs et consommateurs, on s’aperçoit que pour Wikipédia, il y a d’un côté des concepteurs très instrumentés et d’un autre côté des consommateurs très peu outillés. Entre les deux, on peut s’interroger sur les connaissances, les instruments pour les « médiateurs » (enseignants, documentalistes, etc.). Ne devraient-ils pas en savoir collectivement beaucoup plus que les « simples » utilisateurs ?

Wikipedia est un excellent analyseur des évolutions éducatives : un discours rituel sur la nécessité de développer des utilisations du « numérique », une présence effective mais comme une espèce de sous culture, acceptable parce qu’elle rend des services, pratique mais décriée. Wikipedia est une mine pour les chercheurs, c’est aussi un projet en avance dans le domaine de la culture et dans celui du Web sémantique. Mais comment maîtriser cette technologie collective ? On ne perçoit pas encore bien toutes les potentialités et limites de l’écriture collective. Une tension apparaît : si on apprend par l’écriture, des contraintes de forme trop fortes découragent, l’exigence de qualité risque de conduire à un élitisme par trop restrictif. Il faudrait professionnaliser les intermédiaires, afin de palier le manque d’instrumentation, notamment permettant de visualiser des processus de construction pour juger une production. La question de l’expertise des éducateurs se pose avec une certaine urgence. Pourquoi n’arrive pas à se développer un regard plus professionnel sur les productions de ce travail collectif ?

Crédit photo : Kalexanderson (Creative Commons By)

Notes

[1] Voir par exemple, Bruillard Éric (1994). Quelques obstacles à l’usage des calculettes à l’école : une analyse, Grand N, n°53, p. 67-78.

[2] Page consultée le 6 mars 2013

[3] Kien Quach Tat (2011).. Recherche d’information sur le web et moteurs de recherche : le cas des lycéens. Thèse soutenue le 16 décembre 2011 à l’ENS de Cachan

[4] Viégas Fernanda B., Wattenberg Martin, Dave Kushal (2004). Studying Cooperation and Conflict between Authors with history flow Visualizations. In CHI 2004, April 24–29, 2004, Vienna, Austria. ACM.




Comment le Bitcoin peut faire tomber les États-Unis d’Amérique

Un peu d’économie sur le Framablog aujourd’hui, avec le pirate Rick Falkvinge qui voit dans la monnaie Bitcoin une alternative à la fictive toute-puissance du dollar.

Zcopley - CC by-sa

Comment le Bitcoin peut faire tomber les États-Unis d’Amérique

How Bitcoin can bring down the United States of America

Rick Falkvinge – 4 juin 2013 – Site personnel
(Traduction : Slystone, nhrx, letchesco, Asta, Gatitac, rou + anonymes)

Le Bitcoin représente une menace importante pour la domination monétaire des États-Unis, la seule chose qui conforte encore leur statut de superpuissance mondiale. Suite aux défauts de paiement des États-Unis sur leurs emprunts internationaux le 15 août 1971, la balance commerciale américaine avait été maintenue grâce aux menaces militaires et en incitant les gens à acheter des dollars pour financer la consommation permanente des États-Unis. Alors que d’autres devises n’ont pas réussi à dépasser le dollar américain, et donc ce mécanisme qui maintient la dominance économique de la nation, le Bitcoin pourrait bien y parvenir.

Pour comprendre ce scénario, il faut saisir à quel point les États-Unis sont en faillite. Pour certaines raisons, la plupart des feux de l’actualité sont actuellement braqués sur l’échec de l’Euro ; ceci probablement à cause du fait que le dollar américain a échoué depuis longtemps, et qu’il est maintenu sous perfusion en faisant éclater non sans mal une bulle spéculative par jour. Une version ELI5 est disponible ici (NdT : ELI5 : « explain it like I’m five », expliquez-le-moi comme si j’avais 5 ans), mais en un mot, les États-Unis sont en défaut de remboursement de leurs emprunts internationaux suite à la guerre du Viêtnam, et depuis ont dû emprunter de plus en plus pour financer leur consommation extravagante. Depuis bien longtemps ils empruntent toujours plus, pour simplement rembourser les intérets des emprunts antérieurs. L’an dernier, le déficit du budget des États-Unis a atteint le niveau astronomique de 50 % — pour chaque dollar de recette, deux ont été dépensés. Étrangement, peu de monde en parle — j’imagine que si c’était le cas, la capacité des États-Unis à rembourser leurs emprunts serait remise en question, ce qui provoquerait l’écroulement du château de cartes comme si une tonne de briques était déversée dessus, alors personne n’a intêret à faire des vagues. Après tout, tout le monde est assis sur des réserves de dollars qui deviendraient sans valeur du jour au lendemain si ceci devait arriver.

Les États-Unis ont relancé leurs planches à billets le 15 août 1971 et ne les ont pas arrêtées depuis. Rien que pour l’année 2011, 16 mille milliards (un 16 suivi de douze zéros) de dollars ont été imprimés pour maintenir l’économie américaine. Pour se faire une idée, c’est un peu plus que le produit intérieur brut des États-Unis. Pour chaque dollar produit à partir de la valeur (ajoutée), un dollar supplémentaire a été imprimé à partir de rien, dans l’espoir que quelqu’un voudrait bien l’acheter. Et les gens l’achètent ! C’est un fait, il y a ici un mécanisme clé qui force les gens à continuer à acheter des dollars américains.

Les États-Unis sont maintenus en vie en tant que nation par le fait que si quelqu’un souhaite acheter des produits à une autre nation comme la Chine, il doit d’abord acheter des dollars américains puis les échanger contre la marchandise qu’il désire en Chine. Cela conduit tous les pays à acheter des tas de dollars américains pour remplir leurs réserves monétaires.

Le fait que les gens soient obligés de continuer d’acheter des dollars américains pour obtenir ce qu’ils veulent de n’importe qui d’autre dans le monde est le mécanisme qui maintient l’ensemble de l’économie américaine et, plus important encore, alimente son armée qui applique à son tour ce mécanisme (voir en Irak, Libye, Iran, etc.). C’est un cycle de domination économique imposé par la force.

(À noter que l’on peut se demander dans quelle mesure la classe moyenne américaine profite encore de ce système. Il y a dix ans, cette boucle auto-alimentée faisait que le niveau de vie moyen aux États-Unis était sensiblement supérieur à celui du reste du monde occidental. De nos jours, les États-Unis arrivent souvent derniers des indicateurs de niveau de vie.)

Puisque les articles sur « la fin du monde » sont d’habitude rejetés comme relevant d’illuminés conspirationnistes, je voulais commencer cet article en présentant des faits économiques reconnus. Les États-Unis sont en faillite et la seule béquille pour les maintenir debout est leur armée, ainsi que le fait que tout le monde a de lourds investissements dans le pays, si bien que personne ne veut les voir faire faillite. Donc les emprunts et les dépenses excessives continuent une journée de plus… jusqu’à ce que cela ne soit plus possible.

Que se passerait-il si les États-Unis étaient un jour incapables de poursuivre leurs dépenses démesurées ? On assisterait à un crash gigantesque de l’économie mondiale, mais plus important, les États-Unis s’effondreraient à la mode soviétique, mais plus gravement encore, en raison de différences structurelles. (Pour comprendre ces différences, réfléchissez au fait que les transports publics ont continué de fonctionner pendant l’effondrement soviétique et que la plupart des familles étaient déjà bien préparées pour faire face à la pénurie de nourriture. Aux États-Unis vous verriez à la place des gens isolés dans des banlieues sans carburant, sans nourriture ni médicaments, avec seulement plein d’armes et de munitions. Consultez l’étude d’Orlov sur l’écart entre les effondrements et le retard d’effondrement pour plus d’informations sur cette différence structurelle).

Arrivent les Bitcoins, qui peuvent briser le cercle vicieux des emprunts et des dépenses excessives.

Comme nous l’avons vu, la raison pour laquelle les gens sont obligés d’acheter du dollar américain, c’est qu’il est la base du système d’échange de valeur. Si vous voulez un gadget fabriqué en Chine ou en Inde, vous devez d’abord acheter des dollars américains, pour ensuite échanger ces dollars contre le gadget. Mais nous l’avons observé, le Bitcoin dépasse de loin le dollar sous tous ses aspects en tant que gage de valeur pour le commerce international. Utiliser des Bitcoins c’est moins cher, plus facile et bien plus rapide que les actuels transferts de valeur internationaux.

Pratiquement toutes les personnes impliquées dans le commerce international à qui j’ai parlé passeraient à un système semblable à Bitcoin si elles en avaient la possibilité, évacuant des années de frustrations héritées du système bancaire actuel (qui utilise le dollar américain). Si cela arrivait, les États-Unis ne seraient plus en mesure de trouver des acheteurs pour leurs dollars fraîchement imprimés qui maintiennent leur économie (et financent leur armée).

Si ce cycle de monopole et dépendance commerciale du dollar prend fin, les États-Unis d’Amérique s’écrouleront. Lourdement. Cela semble inévitable désormais, et le Bitcoin est peut-être le système qui rompra ce cycle.

Crédit photo : Zcopley (Creative Commons By-Sa)




La nouvelle ère numérique selon Assange : l’âge de la surveillance généralisée ?

Deux membres influents de Google (et donc d’Internet), Eric Schmidt et Jared Cohen, ont récemment publié le livre The New Digital Age (La Nouvelle ère numérique).

Nous vous en proposons ci-dessous la critique cinglante de Julian Assange qui n’hésite pas à affirmer que « l’avancée des technologies de l’information incarnée par Google porte en elle la mort de la vie privée de la plupart des gens et conduit le monde à l’autoritarisme ».

Lorsque Google s’associe ainsi avec le gouvernement américain, son fameux slogan a du plomb dans l’aile et la menace plane…

La banalité du slogan de Google « Ne soyez pas malveillant »

The Banality of ‘Don’t Be Evil’

Julian Assange – 1er juin 2013 – New York Times
(Traduction : Goofy, agui, P3ter, godu, yanc0, Guillaume, calou, Asta, misc, Gatitac, Martinien + anonymes)

« La Nouvelle ère numérique » présente un programme étonnamment clair et provocateur de l’impérialisme technocratique, signé de deux de ses principaux apprentis-sorciers, Eric Schmidt et Jared Cohen, qui élaborent les nouveaux éléments de langage destinés à asseoir la puissance états-unienne sur le monde pour le 21e siècle. Ce langage reflète l’union sans cesse plus étroite entre le Département d’État et la Silicon Valley, incarnée par M. Schmidt, le président exécutif de Google, et par M. Cohen, un ancien conseiller de Condoleezza Rice et de Hillary Clinton, qui est maintenant directeur de Googles Ideas. Les auteurs se sont rencontrés dans le Bagdad occupé de 2009, où ils ont décidé d’écrire ce livre. En flânant parmi les ruines, ils furent excités à l’idée que les technologies de consommation de masse étaient en train de transformer une société laminée par l’occupation militaire des États-Unis. Ils ont décidé que l’industrie des technologies pourrait être un puissant agent de la politique étrangère américaine.

Le livre fait l’apologie du rôle des technologies dans la refonte du monde des nations et des citoyens en un monde semblable à celui des superpuissances dominantes, de gré ou de force. La prose est laconique, l’argumentaire sans détour, la philosophie d’une banalité affligeante. Mais ce n’est pas un livre destiné à être lu. C’est une déclaration majeure destinée à nouer des alliances.

« La Nouvelle ère numérique » est, au-delà de toute autre considération, une tentative par Google de se positionner comme incarnant une vision géopolitique de l’Amérique — la seule et unique entreprise capable de répondre à la question « Où doit aller l’Amérique ? ». Il n’est pas surprenant qu’une sélection imposante des plus farouches bellicistes ait été amenée à donner sa bénédiction à la puissance séduisante du « soft power » occidental. Il faut, dans les remerciements, donner une place de choix à Henry Kissinger, qui, avec Tony Blair et l’ancien directeur de la CIA Michael Hayden, a fait à l’avance les éloges du livre.

Dans celui-ci, les auteurs enfilent avec aisance la cape du chevalier blanc. Un saupoudrage libéral de précieux auxiliaires de couleur politiquement corrects est mis en avant : des pêcheuses congolaises, des graphistes au Botswana, des activistes anti-corruption à San Salvador et des éleveurs de bétail masaïs analphabètes du Serengeti sont tous convoqués pour démontrer docilement les propriétés progressistes des téléphones Google connectés à la chaîne d’approvisionnement informationnelle de l’empire occidental.

Les auteurs présentent une vision savamment simplifiée du monde de demain : les gadgets des décennies à venir ressembleraient beaucoup à ceux dont nous disposons aujourd’hui : simplement, ils seraient plus cool. Le « progrès » est soutenu par l’extension inexorable de la technologie de consommation américaine à la surface du globe. Déjà, chaque jour, un million d’appareils mobiles supplémentaires gérés par Google sont activés. Google, et donc le gouvernement des États-Unis d’Amérique, s’interposera entre les communications de chaque être humain ne résidant pas en Chine (méchante Chine). À mesure que les produits deviennent plus séduisants, de jeunes professionnels urbains dorment, travaillent et font leurs courses avec plus de simplicité et de confort ; la démocratie est insidieusement subvertie par les technologies de surveillance, et le contrôle est revendu de manière enthousiaste sous le terme de « participation » ; ainsi l’actuel ordre mondial qui s’appuie sur la domination, l’intimidation et l’oppression systématiques perdure discrètement, inchangé ou à peine perturbé.

Les auteurs sont amers devant le triomphe égyptien de 2011. Ils jettent sur la jeunesse égyptienne un regard dédaigneux et clament que « le mélange entre activisme et arrogance chez les jeunes est universel ». Des populations disposant de moyens numériques impliquent des révolutions « plus faciles à lancer » mais « plus difficiles à achever ». À cause de l’absence de leaders forts, cela aboutira, ainsi l’explique M. Kissinger aux auteurs, à des gouvernements de coalition qui laisseront la place à l’autocratie. Selon les auteurs « il n’y aura plus de printemps » (mais la Chine serait dos au mur).

Les auteurs fantasment sur l’avenir de groupes révolutionnaires « bien équipés ». Une nouvelle « race de consultants » va « utiliser les données pour construire et peaufiner une personnalité politique. »

« Ses » discours et ses écrits seront nourris (ce futur est-il si différent du présent ?) « par des suites logicielles élaborées d’extraction d’informations et d’analyse de tendances » alors « qu’utiliser les fonctions de son cerveau », et autres « diagnostics sophistiqués » seront utilisés pour « évaluer les points faibles de son répertoire politique ».

Le livre reflète les tabous et obsessions institutionnels du Département d’État (NdT : l’équivalent du Ministère des Affaires étrangères). Il évite la critique sérieuse d’Israël et de l’Arabie Saoudite. Il fait comme si, de manière extraordinaire, le mouvement de reconquête de souveraineté en Amérique Latine, qui a libéré tant de pays des ploutocraties et dictatures soutenues par les États-Unis ces 30 dernières années, n’avait jamais existé. En mentionnant plutôt les « dirigeants vieillissants » de la région, le livre ne distingue pas l’Amérique Latine au-delà de Cuba. Et bien sûr, le livre s’inquiète de manière théâtrale des croque-mitaines favoris de Washington : la Corée du Nord et l’Iran.

Google, qui a commencé comme une expression de la culture indépendante de jeunes diplômés californiens — une culture du respect, humaine et ludique — en rencontrant le grand méchant monde, s’est embarqué avec les éléments de pouvoir traditionnels de Washington, du Département d’État à la NSA.

Bien que ne représentant qu’une fraction infinitésimale des morts violentes à l’échelle mondiale, le terrorisme est un des sujets favoris des cercles politiques des États-Unis. C’est un fétichisme qui doit aussi être satisfait, et donc « Le Futur du Terrorisme » a droit à un chapitre entier. Le futur du terrorisme, apprenons-nous, est le cyberterrorisme. S’ensuit une série de scénarios complaisants et alarmistes, incluant un scénario haletant de film catastrophe dans lequel des cyber-terroristes s’emparent des systèmes de contrôle aérien américains et envoient des avions percuter des bâtiments, coupent les réseaux électriques et lancent des armes nucléaires. Les auteurs mettent ensuite les activistes qui participent aux manifs virtuelles dans le même panier.

J’ai une opinion très différente à ce sujet. L’avancée des technologies de l’information incarnée par Google porte en elle la mort de la vie privée de la plupart des gens et conduit le monde à l’autoritarisme. C’est la thèse principale de mon livre, Cypherpunks (traduit en français sous le titre Menace sur nos libertés. Mais, tandis que MM. Schmidt et Cohen nous disent que la mort de la vie privée aidera les gouvernements des « autocraties répressives » à « cibler leurs citoyens », ils affirment aussi que les gouvernements des démocraties « ouvertes » la verront comme une bénédiction permettant de « mieux répondre aux problèmes des citoyens et des consommateurs ». En réalité, l’érosion de la vie privée en Occident et la centralisation du pouvoir qui lui est associée rendent les abus inévitables, rapprochant les « bonnes » sociétés des « mauvaises ».

La section du livre relative aux « autocraties répressives » décrit nombre de mesures de surveillance répressives qu’elle condamne : les lois dédiées à l’insertion de « portes dérobées » dans des logiciels afin de rendre possibles l’espionnage de citoyens, la surveillance de réseaux sociaux et la collecte d’informations relatives à des populations entières. Toutes ces pratiques sont d’ores et déjà largement répandues aux États-Unis. En fait, certaines de ces mesures, comme celle qui requiert que chaque profil de réseau social soit lié à un nom réel, ont été défendues en premier lieu par Google lui-même.

Tout est sous nos yeux, mais les auteurs ne peuvent le voir. Ils empruntent à William Dobson l’idée selon laquelle les médias, dans une autocratie, « permettent l’existence d’une presse d’opposition aussi longtemps que les opposants au régime comprennent quelles sont les limites implicites à ne pas franchir ». Mais ces tendances commencent à émerger aux États-Unis. Personne ne doute des effets terrifiants des enquêtes menées sur The Associated Press et James Rosen de Fox News. Reste que le rôle de Google dans la comparution de Rosen a été peu analysé. J’ai personnellement fait l’expérience de ces dérives.

Le ministère de la Justice a reconnu en mars dernier qu’il en était à sa 3ème année d’enquête criminelle sur Wikileaks. Le témoignage du tribunal fait remarquer que ses cibles incluent « les fondateurs, propriétaires ou gestionnaires de WikiLeaks ». Une source présumée, Bradley Manning, fait face à un procès de 12 semaines à partir de demain, avec 24 témoins à charge qui témoigneront à huis clos.

Ce livre est une œuvre de très mauvais augure dans laquelle aucun auteur ne dispose du langage pour appréhender, encore moins pour exprimer, le gigantesque mal centralisateur qu’ils sont en train de construire. « Ce que Lockheed Martin était au 20e siècle, les sociétés technologiques et de cybersécurité le seront au 21e siècle », nous disent-ils. Sans même comprendre comment, ils ont mis à jour et, sans accroc, mis en œuvre la prophétie de George Orwell. Si vous voulez une vision du futur, imaginez des lunettes Google, soutenues par Washington, attachées — à jamais — sur des visages humains disponibles. Les fanatiques du culte de la technologie de consommation de masse y trouveront peu de matière à inspiration, non qu’ils en aient besoin visiblement, mais c’est une lecture essentielle pour quiconque se retrouve pris dans la lutte pour le futur, ayant en tête un impératif simple : connaissez vos ennemis.

Crédit photo : Steve Rhodes (Creative Commons By-Nc-Nd)




Le bug #1 d’Ubuntu enfin fixé : Microsoft n’est plus dominant sur le marché

Lorsque la distribution GNU/Linux Ubuntu est sortie en 2004, son père fondateur Mark Shuttleworth a signalé lui-même le premier « bug » : Microsoft détient la majorité du marché (Microsoft has a majority market share).

Il s’agissait symboliquement, et avec humour, de montrer le cap à suivre en désignant le principal concurrent.

Aujourd’hui la donne a changé et Shuttleworth a décidé hier de marquer ce bug comme résolu (fix released), quand bien même cela ne signifie pas, loin de là, qu’Ubuntu ait gagné comme il s’en explique ci-dessous.

Remarque : Nous en profitons pour signaler que Framasoft sera présent en masse à l’Ubuntu Party de Paris, avec stand et 3 mini-conférences le samedi 1er juin.

Ubuntu bug#1 Microsoft

Bug #1 : Microsoft détient la majorité du marché

Bug #1 (liberation) : Microsoft has a majority market share

Mark Shuttleworth – 30 mai 2013 – Launchpad Ubuntu
(Traduction : Penguin, Mowee, Cryptie, quack1, @zessx, Asta, misc, MFolschette, Samusz + anonymes)

Aujourd’hui, l’utilisation de l’informatique dans la vie de tous les jours est beaucoup plus importante qu’elle ne l’était en 2004 : les téléphones, tablettes et autres appareils nomades sont devenus une part non négligeable de notre vie numérique. D’un point de vue compétitif, cet édifiant marché est une bénédiction pour la concurrence. Avec notamment iOS et Android, qui tous deux représentent une part significative du marché (Voir Windows en dessous de iOS et Android réunis avec ce graphique.

Android n’est peut-être pas mon premier choix de (noyau) Linux, ni le vôtre, mais c’est sans aucun doute une plateforme open source qui offre des avantages pratiques et économiques aux utilisateurs, comme à l’industrie. Ainsi, nous avons d’un côté de la concurrence et de l’autre une bonne représentation de l‘open source dans l’informatique personnelle.

Même si nous n’avons joué qu’un petit rôle dans ce changement, je pense qu’il est important pour nous de reconnaître qu’il a eu lieu. Du point de vue d’Ubuntu, le bug est maintenant clos.

Évidemment, ce bug a aussi un aspect social. Pour beaucoup, il a fait office de déclaration d’intention. Mais il est préférable pour nous de nous concentrer sur l’excellence de notre propre travail, plutôt que considérer notre impact sur le produit des autres. Depuis les (nombreuses) années que ce bug est référencé, nous avons trouvé comment être excellents dans le cloud, et j’espère que nous trouverons aussi bientôt comment l’être sur les postes de travail des développeurs, et peut-être même sur toute la quantité d’appareils que les utilisateurs réguliers peuvent utiliser. Je préférerais désormais que nous trouvions un cri de ralliement qui célébrerait ces idées et leur management.

Il est important de remarquer que de nos jours, si vous êtes dans le domaine de l’informatique dématérialisée (NdT : cloud computing), l’équipe de service d’infrastructure (NdT : IaaS) de Microsoft est très compétente et travaille dur pour que Linux soit parfaitement supporté par Azure, ce qui rend le travail avec eux très plaisant. Si l’évolution du marché a peut-être joué un rôle dans tout ça, les circonstances ont changé et les institutions se sont adaptées. Nous nous devons donc de le faire aussi.

Cela dit, il est bon de prendre du recul et de visualiser combien tout cela a changé depuis 2004, et à quelle vitesse ! Avec Ubuntu, notre but est de proposer à tous une expérience utilisateur formidable, que ce soit pour les développeurs, pour la production en entreprise ou tout simplement l’utilisateur final. Et tout cela avec un large support de matériel. Nous évoluons dans un environnement dynamique qui ne cesse de changer d’année en année. C’est donc pour cela que nous devons sans arrêt nous remettre en question, que ce soit au niveau de notre façon de faire, nos pratiques, les outils que nous utilisons ainsi que les relations que nous entretenons en interne et en externe. Corriger ce problème n’en est qu’un tout petit exemple.




Google abandonne les standards ouverts pour sa messagerie instantanée ?

Un coup on souffle le chaud, un coup on souffle le froid, Google est bipolaire vis-à-vis du logiciel libre, des formats ouverts et du respect de la vie privée.

C’est d’autant plus flagrant lorsque pour critiquer Google on s’en réfère à ses propres déclarations.

Et l’on se retrouve, sans crier gare, du jour au lendemain, avec une messagerie instantanée potentiellement amputée de ses qualités précédentes…

Osde8info - CC by-sa

Google abandonne les standards ouverts pour la messagerie instantanée

Google Abandons Open Standards for Instant Messaging

Parker Higgins – 22 mai 2013 – EFF.org
(Traduction : Penguin, TheCamel, audionuma, Asta, KoS)

Au milieu du tourbillon médiatique qui entoure sa conférence I/O annuelle, Google a lâché quelques informations malheureuses sur ses plans concernant sa messagerie instantanée. À plusieurs endroits sur le web, la société remplace son actuelle plateforme « Talk » par une nouvelle dénommée « Hangouts » qui réduit drastiquement le support du protocole ouvert de messagerie instantanée connu sous le nom de XMPP (ou Jabber de manière informelle) et supprime également l’option de désactivation de l’archivage de toutes les communications en messagerie instantanée. Ces changements représentent une bascule des protocoles ouverts vers des protocoles fermés ainsi qu’un recul flagrant pour de nombreux utilisateurs.

Une régression pour l’interopérabilité

Auparavant, le support complet de XMPP par Google signifiait que les utilisateurs pouvaient communiquer avec des interlocuteurs utilisant d’autres services de messagerie instantanée, voire hébergeant leur propre serveur de messagerie instantanée. Ce type de décentralisation est une bonne chose : il diminue la dépendance à un service particulier, ce qui en contrepartie permet aux différents services de se différencier sur des aspects importants comme la qualité, la fiabilité ou le respect de la vie privée.

Certains utilisateurs, par exemple, ne souhaitent peut-être pas fournir à Google des informations sur le contenu de leurs messages, quand et d’où ils se sont connectés, ou bien avec qui ils ont l’habitude de clavarder. Les informations concernant les personnes avec qui les utilisateurs communiquent peuvent être sensibles ; souvenez vous, ces données étaient au cœur du retour de bâton qui frappa Buzz, un ancien réseau social, lorsqu’il décida de les rendre publiques par défaut.

La possibilité de fédérer différents services permet aux utilisateurs de faire leur choix eux-même. Voici une explication issue de la propre documentation de Google concernant la plateforme « Talk », dans une partie intitulée « Communications ouvertes » :

Le choix du service vous permet de choisir votre fournisseur en vous basant sur des facteurs plus importants tels que les fonctionalités, la qualité de service et le prix, tout en conservant la capacité de communiquer avec qui vous voulez.

Malheureusement, ce n’est pas le cas de nombreux services IM (messagerie instantanée) et VOIP (voix sur IP) aujourd’hui. Si les personnes avec qui vous souhaitez communiquer sont toutes connectées à des services IM/VOIP différents, vous devez créer un compte chez chacun d’entre eux pour pouvoir communiquer.

Le nouveau protocole Hangouts soulève précisément les questions que Google souligne ci-dessus. Les utilisateurs n’ont d’autre choix que d’utiliser les serveurs de Google ou se déconnecter des gens qui les utilisent. Les utilisateurs de Google ne sont pas informés du changement : leurs copains qui utilisent jabber.org, member.fsf.org, ou n’importe quel autre service qui utilise XMPP n’apparaîtront tout simplement plus dans la liste des contacts en ligne.

Ces changements sont le résultat de l’abandon par Google d’un sous-ensemble particulier du standard XMPP, le server-to-server federation. Mais pour le moment, Google continue à utiliser la partie connexion client-serveur, ce qui signifie que dès lors que vous êtes connecté avec un compte Google, vous pouvez utiliser n’importe quelle application utilisant ce protocole.

C’est important pour plusieurs raisons. Une des plus importantes est qu’aucun client officiel Google ne propose le chiffrement des communications Off-the-Record (OTR), qui devient un composant critique pour la sécurité des communications en ligne. Si les deux participants dans un échange sur messagerie instantanée utilisent chacun un chiffrage OTR, ils disposent d’une liaison sécurisée d’un bout à l’autre, ce qui signifie que personne, y compris leur fournisseur de service, ne peut lire le contenu de leurs messages.

Des changements dans l’historique

Malheureusement, un autre changement de la part de Google pourrait forcer les utilisateurs à faire un choix difficile, à savoir utiliser ou non ces clients externes tels que Pidgin, Adium, Gibberbot ou Chatsecure pour discuter. Le dilemme vient en particulier de la manière dont Google a changé sa façon d’archiver les conversations et de les présenter à l’utilisateur.

Précédemment, les utilisateurs pouvaient désactiver l’« historique de conversation », ce qui empêchait la sauvegarde des messages instantanés sur leur compte Gmail. Avec les nouveaux paramètres, les utilisateurs qui ne veulent pas conserver une copie de leur conversation accessible via Gmail doivent désactiver l’« historique Hangout », et ce pour chaque contact[1]. Le problème est que les utilisateurs peuvent seulement désactiver l’historique Hangout avec un compte Google Hangout officiel.

Donc tant pis pour les utilisateurs soucieux de leur vie privée qui veulent utiliser le chiffrement Off-the-Record et qui désirent garder leurs messages loin de leur compte Gmail. Et s’ils veulent continuer à discuter avec leurs amis sur Google chat, ils ne peuvent même pas le faire autre part.

Depuis la semaine dernière, Google demande aux utilisateurs de remplacer l’application Android Talk par Hangouts et de passer à Hangout au sein de Gmail dans Chrome. Soyez vigilants avant d’effectuer la mise à jour, soyez vigilants du coût pour la liberté de ces « améliorations ».

Que devrait faire Google ?

Dans son explication publique officielle de son abandon du support de XMPP, Google a expliqué que c’était une décision difficile, rendue nécessaire par des contraintes techniques. Mais même si le nouveau protocole obéit à de nouvelles contraintes techniques, cela n’empêche pas la compagnie de le rendre public et interopérable. Libérer les spécifications de Google Hangouts serait un bon premier pas. Fournir des client et des serveurs open source en serait un second. Il est clair que certaines fonctionnalités vidéo de Hangouts ont été implémentées dans un but spécifique à Google. Mais ce n’est pas une excuse pour nous emmener vers un monde où les seuls choix concrets sont des logiciels et des protocoles de chat propriétaires.

Une autre initiative simple à mettre en œuvre au bénéfice des utilisateurs aurait été d’incorporer le support de Off-the-Record dans le client Hangout officiel. Si de telles possibilités de confidentialité étaient proposées aux utilisateurs, cela atténuerait le fait d’offrir des options de protection de la vie privée seulement dans le logiciel propriétaire de Google.

Dans le document Google « Communications ouvertes » cité ci-dessus, l’entreprise explique en quoi c’est un véritable engagement d’ouvrir les canaux de communication :

La mission de Google est de rendre l’information mondiale universellement accessible et utile. Google Talk, qui permet aux utilisateurs de communiquer instantanément avec leurs amis, leur famille et leurs collègues via des appels vocaux et des messages instantanés, reflète notre conviction que les communications devraient être accessibles et utiles.

Nous sommes frustrés et déçus de voir Google reculer face à cette mission.

Crédit photo : Osde8info (Creative Commons By-Sa)

Notes

[1] Pour être clair, même les réglages précédents étaient loin d’être parfaits du point de vue de la vie privée : désactiver l’historique de conversation permettait uniquement d’empêcher l’archivage des messages sur votre compte Gmail, mais n’empêchait pas les autres utilisateurs, ou Google lui-même, de garder une trace de la conversation.