La NSA et la surveillance sur Internet pour les nuls

« Ces révélations ont changé notre Internet à jamais. La vie privée a-t-elle seulement un avenir ? »

L’excellent journal The Guardian, très actif dans l’affaire Snowden, a récemment mis en ligne une vidéo simple et percutante sur la NSA et la problématique de la surveillance en ligne.

Nous vous en proposons sa transcription traduite ainsi que le fichier .SRT de sous-titrage en français disponible ci-dessous (merci Cartido)

Une vidéo à voir et à faire voir tant elle fait peur et démontre que nous avons changé de paradigme dans une indifférence presque générale.

—> La vidéo au format webm
—> Le fichier de sous-titres

La NSA et la surveillance… rendu facilement compréhensible pour tous

URL d’origine du document

Scott Cawley, Jemima Kiss, Paul Boyd et James Ball – 26 novembre 2013 – The Guardian
(Traduction : Goofy, Mounoux, T, Paul + anonymes)

Maintenant que nous sommes presque tous en ligne, et connectés d’une façon ou d’une autre, les espions ne ciblent plus une ou deux personnes mal intentionnées. Au lieu de cela, les gouvernements du Royaume-Uni et des États-Unis pratiquent tous deux une collecte massive d’informations sur ce que nous faisons avec nos téléphones et sur Internet.

Comment font-ils ?

Deux grandes méthodes sont utilisées pour récupérer ces informations.

La première, c’est de travailler avec les entreprises qui font fonctionner les réseaux et « d’écouter » les câbles qui sont essentiels pour faire circuler toute cette information. Ils s’installent au beau milieu de l’énorme flux de données, moissonnent tout ce qui circule puis le stockent dans d’immenses bases de données.

La deuxième technique implique d’utiliser leurs relations privilégiées avec les entreprises high-tech (Google, Facebook, Microsoft…) pour s’emparer de nos informations comme les courriers électroniques en les captant directement sur les services basés aux USA.

Que font-il avec ?

Les agences d’espionnage jettent la plupart des contenus qu’ils collectent. Ils les gardent sur leur système pendant trois jours environ et rejettent tout ce qui ne provient pas d’une de leurs cibles.

Il en va autrement pour les métadonnées. Qui a envoyé un message ? pour qui ? quand ? bien d’autres détails encore. Les services secrets conservent presque toutes les métadonnées collectées pendant environ un mois au Royaume-Uni et jusqu’à un an aux États-Unis. Cela leur permet de créer les profils de millions de gens. Qui parle à qui ? qui connaît qui ? et, si nécessaire, où sont localisés les gens ?

Ces révélations soulèvent un certain nombre de questions.

Où se situe la frontière entre notre droit à la vie privée et le devoir des autorités de nous protéger ? Les gouvernements en Amérique du Nord et au Royaume-Uni prétendent que ces programmes de surveillance aident à nous prémunir du terrorisme.

Mais que se passerait-il si vous étiez injustement accusé ? Et doit-on accepter le fait que désormais Internet est un endroit bien différent de ce qu’il a été, dirigé par des entreprises et des gouvernements qui peuvent le surveiller quand et comme ils le veulent ?

Maintenant que vous savez que vous êtes surveillé, votre comportement va-t-il changer ? Comment allez-vous parler à vos amis et jusqu’à quel point allez-vous faire confiance au monde qui vous entoure ?

Ces révélations ont changé notre Internet à jamais. La vie privée a-t-elle seulement un avenir ?




Nouveau Framabook : Libres Conseils – Lancement le 25 novembre chez Mozilla

Ce beau projet est né voilà presque un an. La caractéristique principale de sa conception c’est le travail collaboratif, depuis sa composition par 42 auteurs jusqu’à son édition en Framabook en passant par les presque 100 traducteurs bénévoles qui ont contribué à la version française.

Ce livre apporte 42 réponses à la question : « Qu’auriez-vous aimé savoir quand vous avez commencé à contribuer ? » — à contribuer au Libre ou à l’open source, bien entendu.

Vous trouverez sur la page Framabook de Libres conseils le rappel détaillé de ce que furent les mois d’activité autour de ce projet : les rendez-vous rituels du jeudi soir ouvert à tous, la publication en feuilleton sur le blog, les relectures sur le booktype puis sur les versions en PDF, la confection de l’epub…

Mais aujourd’hui l’heure est au lancement et voici une invitation pour les plus rapides

Framasoft vous invite à fêter la sortie d’un nouveau Framabook !

Libres conseils, le livre maintenant

Lundi 25 novembre 2013 de 19 h à 21 h chez Mozilla Paris (merci Tristan Nitot)

16 bis, Boulevard Montmartre dans le 9e – Station de métro : Grands Boulevards

Venez découvrir ce livre sous licence libre (CC BY-SA 3.0) autour d’un verre dans les locaux de Mozilla, avec l’équipe du projet, en présence de Tristan (Mozilla) qui a signé la préface. Vous aurez la possibilité de contribuer à votre tour à cet ouvrage en écrivant votre témoignage sur le Libre !

Inscrivez-vous librement pour recevoir votre invitation en cliquant sur ce lien.

L’ouvrage collectif Libres conseils est disponible ici pour 16 euros, mais vous pouvez télécharger gratuitement une version électronique. Vous serez sollicité pour un don (facultatif), Ce qui vous rappelle que nous venons de lancer notre campagne de soutien !

À bientôt !




The Open Access Button : cartographions les entraves au Libre Accès

Il est souvent question de libre accès sur le Framablog. Par exemple avec ce manifeste du regretté Aaron Swartz ou cette limpide explication vidéo de Jean-Claude Guédon.

Avec Internet et la numérisation, il est désormais possible de consulter l’ensemble des ressources scientifiques et académiques. En théorie oui mais il peut en aller tout autrement dans la pratique, ce qui n’est pas sans poser de nombreux problèmes. Deux étudiants proposent ici de signaler tout péage rencontré pour accéder à ces ressources et de le mentionner sur un site commun.

On notera au passage que c’est OpenStreetMap qui fournit la carte.

Open Access Button

Des étudiants lancent le « Bouton » pour mettre en lumière l’accès refusé aux articles scientifiques

Students Launch “Button” to Put Denied Access to Research on the Map

18 novembre 2013 – Open Acess Button
(Traduction : Penguin, Gilles, r0u, sinma, Paul)


Traquer et cartographier l’impact des péages, un clic à la fois.


Aujourd’hui, lors d’un congrès international d’étudiants défendant un accès plus important aux publications universitaires, deux étudiants anglais de premier cycle ont annoncé le lancement fortement attendu du bouton Open Access (NdT : Accès libre), un outil adossé au navigateur qui permet de cartographier l’épidémie de refus d’accès aux articles de la recherche universitaire et qui aide les utilisateurs à trouver les recherches dont ils ont besoin.


Les étudiants David Carroll et Joseph McArthur ont créé le bouton Open Access en réaction au sentiment de frustration que leur causait l’impossibilité d’accéder aux travaux de la recherche universitaire.


« J’ai réalisé qu’il y avait un problème à force de continuellement me heurter à des obstacles pour accéder à des articles pertinents pour mes recherches », explique Carroll, étudiant en médecine à l’université Queen’s de Belfast. « Mon université peut s’offrir un abonnement à de nombreuses publications et, pourtant, je ne peux pas accéder à tout ce dont j’ai besoin. Cela m’a amené à me demander combien d’autres que moi rencontraient le même problème et comment cela affectait les gens partout dans le monde ».


Chaque jour, des personnes essaient d’accéder à des articles de la recherche universitaire – des médecins cherchant de nouveaux traitements, des scientifiques travaillant à la mise au point de nouvelles technologies, des étudiants essayant de parfaire leur formation. Or au lieu d’avoir immédiatement accès aux informations essentielles qu’ils cherchent, ces personnes se retrouvent trop souvent confrontées à un système de péage qui subordonne leur accès à l’information leur demandant un paiement en échange de l’accès, parfois jusqu’à 40$ par article. Ces péages existent parce qu’une grande partie des ressources académiques est publiée dans des journaux onéreux, basés sur des abonnements dont les augmentations de prix ont largement dépassé l’inflation depuis plusieurs décennies.


« Vu la capacité actuelle de partager la connaissance sur le Web, il est absurde que la majorité de la population dans le monde se voit barrer l’accès à de si nombreux travaux » indique McArthur, étudiant en pharmacologie au University College de Londres. « Jusqu’à maintenant, ce déni d’accès était invisible car chacun le vivait de son côté. Nous avons créé le bouton Open Access pour rassembler toutes ces expériences séparées et mettre en lumière l’ampleur mondiale du problème ».

Open Access Button


Le bouton Open Access est un outil adossé au navigateur qui permet aux utilisateurs de garder la trace d’un refus d’accès à une publication, puis de chercher des moyens alternatifs d’accéder à ladite publication. Chaque fois qu’un utilisateur se heurte à un péage, il clique simplement sur le bouton dans sa barre de favoris, remplit ,s’il le souhaite, une boîte de dialogue optionnelle, et son expérience vient s’ajouter à celle des autres utilisateurs sur une carte. Il reçoit ensuite un lien pour rechercher un accès libre et gratuit à l’article en utilisant par exemple des ressources comme Google Scholar. L’initiative Open Access Button espère créer une carte mondiale montrant l’impact du refus d’accès aux publications scientifiques.


Le bouton Open Access tire son nom du mouvement mondial pour le libre accès (NdT : Open Access en anglais) : la disponibilité gratuite et immédiate en ligne d’articles de recherche, accompagnés du droit intégral d’utilisation de ces articles dans l’espace numérique.


« Le mouvement pour l’Open Access est une solution puissante contre les barrières auxquelles se heurtent les chercheurs des pays en développement ou en phase de transition économique dans leurs tentatives d’accéder et de partager des recherches cruciales pour l’amélioration de la vie », déclare Iryna Kuchma, responsable du programme Open Acces à l’EIFL (Electronic Information for Libraries ou Information électronique pour bibliothèques), une organisation qui travaille avec des bibliothèques à travers le monde pour permettre l’accès des populations des pays en voie de développement ou en phase de transition économique aux informations numériques. « L’accès aux dernières publications scientifiques ne doit pas être confiné à la sphère universitaire, mais ouvert à tout personne intéressée : médecins et patients, agriculteurs* et entrepreneurs, formateurs et étudiants ».


Pour Jack Andraka, étudiant américain de 16 ans, récompensé par l’Intel Science Fair pour avoir inventé un test révolutionnaire de diagnostic du cancer du pancréas, « Le bouton Open Access aide à démocratiser la connaissance ». Andraka a raconté comment il s’était lui-même heurté aux les refus d’accès aux publications scientifiques quand il développait son test. « La connaissance ne doit pas être une marchandise. Elle doit être librement accessible pour permettre aux patients et familles d’être pleinement parties prenantes. »


David Carroll et Joseph McArthur ont annoncé le lancement du bouton Open Access aujourd’hui devant un parterre de plus de 80 personnes réunies à l’occasion de la Berlin 11 Student and Early Stage Researcher Satellite Conference, une rencontre internationale pour les étudiants intéressés par la promotion de l’Open Access. Cette rencontre précède la conférence Open Access de Berlin, une convention de leaders d’opinion à travers le monde sur la question de l’Open Access, qui a débuté mardi.

« Ne perdons jamais de vue que nous tenons trop souvent pour immuable ce qui n’est qu’un état de fait, mais les développeurs du bouton Open Access nous rappellent qu’en tant qu’individus, nous avons réellement le pouvoir de changer les choses », déclare Heither Joseph, directeur exécutif de la coalition SPARC (Scholarly Publishing and Academic Resources Coalition), un regroupement international de bibliothèques universitaires et de recherche) et leader de renommée internationale au sein du mouvement Open Access. « C’est une idée simple, mais incroyablement créative, qui devrait nous aider à montrer combien l’accès libre répond à un véritable besoin ».

Plus d’informations à propos du bouton Open Access ainsi que des instructions pour son installation sont disponibles sur le site www.OpenAccessButton.org.


Suivez la conversation sur Twitter à @OA_Button avec le hashtag #aobuttonlaunch.




Pourquoi Microsoft Word doit-il mourir ?

Cet article est le fruit d’une traduction collaborative menée via la liste linuxedu sur un framapad.

Le titre original est : « Why Microsoft Word must Die? ». Son auteur Charles Stross est un écrivain britannique de science fiction. Très connu dans le milieu de la science fiction et du fantasy, il a obtenu plusieurs prix dont le prix Hugo.

Avant de pouvoir traduire son texte, nous lui avons demandé son autorisation ainsi que la licence qu’il souhaitait poser. Le texte suivant est donc en CC-By-Nc-Sa. Un grand merci à lui pour sa réactivité et surtout cet article très intéressant.

En tant qu’enseignants, nous ne pouvons que recommander cette lecture. On entend parfois comme argument que le système éducatif doit former à Word car c’est ce qui est présent dans le monde professionnel. Ceci est une véritable insulte à nos missions. Cela signifie que la qualité de notre enseignement est pauvre au point que nos élèves soient incapables de s’adapter à divers contextes logiciels ! Notre rôle est de les former à une classe de logiciel pas à un « outil » particulier aussi bon ou aussi mauvais soit-il. Vu les programmes actuels, peu d’élèves sortent en sachant utiliser correctement un traitement de texte. Le paradigme de la machine à écrire améliorée perdure.

Microsoft Word

Pourquoi Microsoft Word doit mourir ?

Je hais Microsoft Word. Je veux la mort de Microsoft Word. Je hais Microsoft Word avec une passion ardente et enflammée. Je hais Microsoft Word à la manière dont Winston Smith haïssait Big Brother. Et, de manière alarmante, nos raisons ne sont pas si différentes…

Microsoft Word est un tyran pour l’imagination, un dictateur mesquin, sans imagination et inconséquent qui est mal adapté à une quelconque utilisation créative par un écrivain. Pire : Il est en situation de quasi-monopole, dominant l’univers des traitements de texte. Son statut quasi monopolistique envahissant a fait un lavage de cerveaux aux développeurs de logiciels, à un point tel que peu d’entre eux peuvent imaginer un traitement de texte comme autre chose qu’une pâle copie du Monstre de Redmond. Mais qu’est-ce qui ne va pas exactement ?

J’utilise des traitements de texte et des éditeurs de texte depuis environ 30 ans. Il y eut une époque, avant la domination de Microsoft Word, où plusieurs paradigmes radicalement différents pour la préparation et le formatage de texte étaient en compétition dans un marché ouvert des idées. L’une des premières combinaisons, particulièrement efficace, était l’idée d’avoir un fichier texte, contenant des commandes imbriquées ou des macros, qui pouvait être édité avec un éditeur de texte pour les programmeurs (comme ed ou teco, ou plus tard vi ou emacs) puis alimenter divers outils : vérificateurs d’orthographe, correcteurs de grammaire, et des outils de mise en page tels que scribe, troff ou latex qui produisaient une image binaire de la page pouvant être envoyée à une imprimante.

Ces outils étaient rapides, puissants, élégants et extrêmement exigeants vis-à-vis de l’utilisateur. Quand les premiers ordinateurs personnels 8 bits apparurent (pour l’essentiel, l’Apple II et l’écosystème concurrent CP/M), les programmeurs tentèrent de développer un outil hybride, appelé traitement de texte : l’édition se faisait à l’écran et masquait à l’auteur les commandes compliquées et rébarbatives destinées à l’imprimante, en les remplaçant par une mise en surbrillance et en ne les affichant que lorsque que l’auteur demandait au logiciel de « montrer le code ».

Des logiciels comme WordStar ont ouvert la voie, jusqu’à ce que WordPerfect prenne le marché au début des années 1980 en introduisant la possibilité d’éditer simultanément deux fichiers ou plus, en scindant l’affichage à l’écran.

Puis, vers la fin des années soixante-dix et le début des années quatre-vingts, des groupes de recherche au MIT (l’Institut Universitaire de Technologie du Massachusetts à Boston) et au centre de recherche de Xerox à Palo Alto en Californie ont commencé à développer des outils qui ont étoffé l’interface graphique de l’utilisateur des stations de travail comme le Xerox Star et, plus tard, l’ordinateur Lisa et Macintosh – et finalement l’imitateur nouveau venu Microsoft Windows. Une guerre éclata puis fit rage entre deux factions.

Une faction voulait prendre le modèle classique des codes imbriqués dans un ficher, et l’améliorer pour un affichage graphique : l’utilisateur sélectionnait une section de texte, le marquait « italique » ou « gras », et le traitement de texte injectait le code associé dans le fichier puis, au moment d’imprimer, modifiait le rendu graphique envoyé à l’imprimante à cette phase-là du processus.

Mais un autre groupe voulait utiliser un modèle beaucoup plus puissant : les feuilles de style hiérarchiques. Dans un système à feuilles de style, les unités de texte — mots ou paragraphes — sont étiquetées avec un nom de style regroupant un ensemble d’attributs qui sont appliqués à ce morceau de texte lors de l’impression.

Microsoft était au début des années 80 une entreprise de développement logiciel, surtout connue pour son interpréteur BASIC et le système d’exploitation MS-DOS. Steve Jobs approcha Bill Gates en 1984 pour écrire des applications pour le nouveau système Macintosh, et il accepta.

L’un de ses premiers travaux fut d’organiser le premier véritable traitement de texte WYSIWYG pour un ordinateur personnel – Microsoft Word pour Macintosh. La controverse faisait rage en interne : devait-on utiliser les codes de contrôle ou bien les feuilles de style hiérarchiques ?

Finalement, le verdict tomba : Word devrait mettre en œuvre les deux paradigmes de formatage. Bien qu’ils soient fondamentalement incompatibles et qu’on puisse tomber dans une confusion horrible en appliquant un simple formatage de caractères à un document à base de feuille de style, ou vice versa. Word souffrait en réalité d’un vice de conception, dès le début – et cela n’a fait qu’empirer depuis.

Entre la fin des années 80 et le début des années 90, Microsoft est devenu un mastodonte en situation de quasi-monopole dans le monde du logiciel. L’une de ses tactiques est devenue bien connue (et redoutée) dans l’industrie : adopter et étendre (NdT: il y a l’idée du « baiser de la mort » : étreindre pour mieux étouffer).

Confronté à un nouveau type de logiciel à succès, Microsoft rachètait l’une des entreprises à la pointe du secteur et déversait alors des moyens pour intégrer le produit à son propre écosystème Microsoft, si nécessaire en abaissant ses prix pour éjecter ses concurrents du marché. La croissance de Microsoft Word s’est faite par l’acquisition de nouveaux modules : publipostage, correcteurs orthographiques et grammaticaux, outils de chapitrage et d’index.

Toutes ces entreprises étaient des sociétés artisanales dynamiques, formant une communauté prospère d’éditeurs de produits concurrents qui tous luttaient pour produire de meilleurs logiciels qui leur permettaient de cibler leurs parts de marché. Mais Microsoft s’est infiltré dans chaque secteur et a intégré un par un les concurrents à Word, tuant de fait la concurrence et étouffant l’innovation. Microsoft a tué les outils d’index et de chapitrage sur Windows, a stoppé net le développement du correcteur grammatical, a étouffé celui des correcteurs orthographiques. Il existe un cimetière entier d’écosystèmes jadis prometteurs, et il s’appelle Microsoft Word.

Alors que le logiciel se développait, Microsoft déploya sa tactique « Adopte étend et étouffe » en vue de rendre les mises à jours incontournables, rendant ainsi les utilisateurs de Word captifs, par le biais de mutations constantes du format de fichier utilisé. Les premières versions de Word étaient interopérables avec ses rivaux comme Word Perfect, elles pouvaient importer et exporter dans les formats de fichier des autres logiciels. Mais au fur et à mesure que la domination de Word devenait établie, Microsoft a à plusieurs reprises modifié son format de fichier – avec Word 95, Word 97, en 2000, encore en 2003 et plus récemment encore.

Chaque nouvelle version de Word utilisait par défaut un nouveau format de fichier qui n’était plus reconnu par les versions précédentes. Pour échanger des documents avec quelqu’un d’autre, vous pouviez tenter d’utiliser le format RTF — mais la plupart des utilisateurs professionnels occasionnels ne prenaient pas la peine de regarder les différents formats du menu « Enregistrer sous… », et donc si vous deviez travailler avec d’autres, vous vous trouviez dans l’obligation de payer régulièrement la dime Microsoft même si aucune nouvelle fonctionnalité ne vous était utile.

Le format de fichier .doc a lui aussi été délibérément rendu opaque : au lieu d’un document interprétable contenant des métadonnées de formatage ou de macros, c’est en fait l’image mémoire des structures de données logicielles qu’utilise Word, avec les adresses pointant sur les sous-routines qui fournissent les données de formatage ou celles des macros. Et la « sauvegarde rapide » aggrava encore la situation en ajoutant un journal des différents changements à l’image mémoire du programme.

Pour analyser un fichier .doc vous devez virtuellement réécrire un mini Microsoft Word. Ce n’est pas un format de fichier contenant des données : c’est un cauchemar ! Au 21e siècle, ils ont essayé d’améliorer le tableau en le remplaçant par un schéma XML… mais ils n’ont réussi qu’à ajouter à la confusion en utilisant des balises XML qui se réfèrent à des points d’entrée de fonctions dans le code de Word, au lieu de décrire la structure sémantique réelle du document. Difficile d’imaginer qu’une multinationale telle que Microsoft, aussi importante et (habituellement) gérée avec compétence puisse commettre accidentellement une telle erreur…

Cette obsolescence programmée n’a pas d’importance pour la plupart des entreprises, dans lesquelles la durée moyenne de vie d’un document est inférieure à six mois. Mais d’autres domaines réclament la conservation des documents. En droit, en médecine ou encore en littérature, la durée de vie d’un fichier se compte en décennies si ce n’est en siècles. Les pratiques commerciales de Microsoft vont à l’encontre des intérêts de ces utilisateurs.

D’ailleurs Microsoft Word n’est même pas facile à utiliser. Son interface alambiquée, baroque, rend difficile ce qui est simple et quasi impossible ce qui est difficile. Ceci garantit la sécurité de l’emploi pour le gourou, mais pas la transparence pour l’utilisateur éclairé et intuitif qui souhaiterait simplement se concentrer sur son travail et pas sur l’outil avec lequel la tâche doit être accomplie. Word impose à l’auteur sa propre conception de la façon dont un document doit être structuré, une structure bien plus adaptée aux lettres commerciales et aux bilans (tâches pour lesquelles il est utilisé par la majorité de ses utilisateurs).

Ses outils de vérification et de suivi des modifications sont baroques, truffés d’erreurs et ne conviennent pas à un vrai travail collaboratif de conception d’un document ; ses possibilités de chapitrage et de notes sont piteusement primitives face aux besoins d’un écrivain ou d’un thésard. Quant aux recommandations à l’emporte-pièce de son correcteur grammatical, elles pourraient n’être qu’amusantes si les tournures commerciales qu’il impose, dignes d’un potache besogneux, n’étaient désormais si largement répandues.

Mais ce n’est pas pour cela que je veux la mort de Microsoft Office.

La raison pour laquelle je veux sa mort est que, tant que celle-ci ne sera pas arrivée, on ne pourra éviter Word. Je n’écris pas mes romans avec Microsoft Word. J’utilise toute une palette d’autres outils, depuis Scrivener (un logiciel conçu pour la structuration et l’édition de documents composites qui est à Word ce qu’un environnement de développement intégré est à un éditeur de texte rudimentaire) jusqu’à des éditeurs de texte classiques comme Vim. Mais d’une façon ou d’une autre, les principales maisons d’édition se sont laissé intimider et persuader que Word était l’incontournable clef-de-voûte des systèmes de production de documents.

Pire, cette prédominance nous rend aveugles aux possibilités d’amélioration de nos outils de création de documents. On nous a imposé presque 25 ans d’immobilisme, j’espère que nous trouverons bientôt quelque chose de mieux pour le remplacer.




Grâce à Wikileaks on a la confirmation que l’accord TPP est pire qu’ACTA

Merci à Wikileaks d’avoir révélé hier une version de travail tenue secrète de l’accord Trans-Pacific Strategic Economic Partnership, plus connu sous l’acronyme TPP.

La France ne faisant pas partie des pays directement concernés, on n’en parle pas beaucoup dans nos médias. Mais on sait depuis longtemps que ce sont les USA qui donnent le la dans tout ce qui touche au copyright international.

Plus que donner le la, ils dictent la loi. Et celle qui se prépare ici est tout simplement scélérate…

TPP

La fuite du chapitre sur la propriété intellectuelle du Partenariat Trans-Pacifique confirme que cet accord est pire qu’ACTA

TPP IP Chapter Leaked, Confirming It’s Worse Than ACTA

Glyn Moody – 13 novembre 2013 – TechDirt.com
(Traduction : Barbidule, Penguin, Genma, MFolschette, baba, mlah, aKa, Alexis Ids, Scailyna, @paul_playe, Mooshka, Omegax)

par le service du pas-étonnant-que-le-secret-soit-si-bien-gardé

Cela fait longtemps que nous attendions une fuite majeure du Partenariat Trans-Pacifique (TPP) rédigé en secret ; grâce à Wikileaks, nous en avons enfin une (voir aussi directement le pdf). Le texte est long et lourd à lire, en partie à cause de toutes les parties entre parenthèses sur les points où les négociateurs ne se sont pas encore mis d’accord. Même si le brouillon est assez récent — il est daté du 30 août 2013 — un grand nombre de ces points y restent ouverts. Heureusement, KEI a déjà rassemblé une analyse détaillée mais facilement compréhensible, que je vous encourage vivement à lire en entier. En voici un résumé :

Le document confirme les craintes sur le fait que les différentes parties sont prêtes à étendre les limites du droit de la propriété intellectuelle, et à restreindre les droits et libertés du consommateur.

En comparaison des accords multilatéraux existants, l’accord du TPP sur la propriété intellectuelle propose l’octroi de nouveaux brevets, la création d’une propriété intellectuelle sur les données, l’extension des termes de protection pour les brevets et copyrights, l’accroissement des privilèges des ayants droit, et l’augmentation des peines pour infraction à la propriété intellectuelle. Le texte du TPP réduit le champ des exceptions pour tous les types de propriété intellectuelle. Négocié dans le secret, le texte proposé est néfaste pour l’accès au savoir, néfaste pour l’accès aux soins, et profondément néfaste pour l’innovation.

Bien que de nombreux domaines soient concernés par les propositions de la copie de travail — l’accès aux soins vitaux seraient restreints, tandis que la portée des brevets serait étendue aux méthodes chirurgicales par exemple — les effets sur le copyright sont particulièrement significatifs et troublants :

Collectivement, les dispositions du droit d’auteur (dans le TPP) sont configurées de manière à étendre les termes du droit d’auteur de la convention de Berne au-delà de la vie plus 50 ans, créant de nouveaux droits exclusifs, et fournissant bon nombre de nouvelles directives spécifiques pour gérer le copyright dans l’environnement numérique.

Voici quelques-unes des extensions de durée proposées :

Concernant les durées de copyright, le TPP définit les bases comme suit. Les États-Unis, l’Australie, le Pérou, Singapour et le Chili proposent une durée de 70 ans après la mort de l’auteur pour les personnes physiques. Pour des œuvres appartenant à une entreprise, les États-Unis proposent 95 ans de droits exclusifs, alors que l’Australie, le Pérou, Singapour et le Chili proposent 70 ans. Le Mexique veut une durée de 100 ans après la mort de l’auteur pour les personnes physiques et 75 ans après la mort de l’auteur pour des œuvres appartenant à une entreprise. Pour des travaux non publiés, les États-Unis veulent une durée de 120 ans.

Un problème plus technique concerne l’utilisation du « test en trois étapes » qui agira comme une contrainte supplémentaire sur de possibles exceptions au copyright :

Dans sa forme actuelle, l’espace des exceptions tel que défini par le TPP est moins vaste et plus restrictif que celui du traité 2012 de l’OMPI à Pékin ou celui du traité 2013 de l’OMPI à Marrakech, et bien pire que l’accord ADPIC. Bien que cela implique des problèmes légaux complexes, les ramifications politiques sont simples. Les gouvernements auraient une marge de manœuvre plus restreinte pour évaluer les exceptions dans l’éducation, dans les citations, dans les affaires publiques, dans les actualités et dans les autres exceptions « spéciales » de la Convention de Berne ? Pourquoi un gouvernement voudrait-il abandonner son autorité générale pour réfléchir à l’aménagement de nouvelles exceptions, ou pour contrôler les abus des détenteurs de droits ?

Ceci est un bon exemple de comment le TPP n’essaie pas seulement de changer le copyright en faveur de ceux qui veulent l’étendre au maximum, mais essaie aussi d’instaurer un copyright qui serait facile à renforcer à l’avenir. En voici un autre, dans lequel le TPP veut empêcher le retour à un système de copyright qui nécessite une inscription — ce genre de système ayant été proposé comme un moyen de pallier aux problèmes qui surviennent à cause de la nature automatique de l’attribution du copyright :

Le TPP va au-delà de l’accord ADPIC pour ce qui est de l’interdiction de l’instauration de formalités pour le copyright. Bien que le problème des formalités puisse sembler être un problème facile à résoudre, il y a un bon nombre de flexibilités qui seront éliminées par le TPP. À l’heure actuelle, il est possible d’avoir des exigences de formalités pour des œuvres appartenant à la sphère nationale et d’imposer des formalités à de nombreux types de droits liés, incluant ceux protégés par la Convention de Rome. Ces dernières années, les créateurs et les théoriciens de la politique du copyright ont commencé à remettre en question les bénéfices de l’enregistrement des œuvres et autres formalités, en particulier à la lumière des problèmes liés aux durées de copyright étendues sur de nombreuses oeuvres orphelines.

Comme vous pouvez vous en douter, le TPP demande à ce qu’il y ait des protections solides de type DRM ; mais ici encore, il cherche à rendre les choses pires qu’elles ne le sont déjà :

La section sur le droit d’auteur inclut également un long discours sur les mesures de protection technique, et en particulier, la création d’un motif de poursuites spécifique contre le fait de casser les mesures techniques de protection. Les USA veulent que ce motif de poursuites spécifique s’étende même aux cas où le droit d’auteur n’est pas applicable, comme par exemple les œuvres du domaine public, ou bien les données qui ne sont pas protégées par le droit d’auteur.

Cela rendrait illégal le fait de contourner les DRM, même si ceux-ci sont appliqués à du contenu qui se trouve dans le domaine public — les enfermant alors une fois de plus, de façon efficace et permanente. Enfin, il est intéressant de remarquer que dans la sous-section fixant les dommages et intérêts pour violation de copyright, on peut y lire ce qui suit :

Pour déterminer le montant des dommages et intérêts en vertu du paragraphe 2, les autorités judiciaires seront habilitées à examiner, entre autres, toute mesure légitime de valeur que le détenteur du droit soumet, ce qui peut comprendre les bénéfices perdus, la valeur des biens ou des services concernés, mesurée en se basant sur le prix du marché, ou sur le prix de vente au détail suggéré.

C’est exactement la tournure qui a été utilisée pour ACTA, et qui a été retrouvée dans le récent accord de libre-échange entre l’UE et Singapour. Cela résume assez bien comment le TPP s’appuie directement sur ACTA, tandis que les autres mesures évoquées ci-dessus montrent comment il va bien au-delà et ce à plusieurs égards.

Voilà pour les mauvaises nouvelles. La bonne nouvelle, c’est que nous avons maintenant une version très récente de ce qui pourrait être la partie la plus controversée de l’accord. Dans les semaines à venir, nous sommes susceptibles de voir de nombreuses analyses détaillées exposant au grand jour le caractère ô combien pernicieux cet accord pour le public des pays participant aux négociations.

L’espoir étant qu’une fois qu’il en sera informé, il fera connaître son sentiment à ses représentants politiques comme il l’a fait avec SOPA et ACTA — et avec le même résultat final.




Quand la communauté OpenStreetMap aide à sauver des vies aux Philippines

La forte mobilisation de la communauté OpenStreetMap après le passage du terrible typhon Haiyan aux Philippines fournit une aide précieuse à la la Croix-Rouge sur le terrain.

« Quand les défenseurs des données ouvertes discutent à propos des licences de données, ils discutent rarement en termes de vie ou de mort. »

Haiyan_approaching_Philippines_2013_-_11_-_07.jpg

Comment les éditeurs de cartes en ligne aident la Croix-Rouge à sauver des vies aux Philippines

How Online Mapmakers Are Helping the Red Cross Save Lives in the Philippines

Robinson Meyer – 12 novembre 2013 – The Atlantic
(Traduction : Garburst, Penguin, Genma, goofy, MFolschette, JLoDoesIT, fcharton, bob, Lydie, Mooshka, aKa, Omegax)

Des bénévoles à travers le monde sont en train de construire une infrastructure géo-numérique pour aider l’organisation des secours aux victimes du typhon Haiyan.

Il faudra des mois avant que nous ne connaissions les réels dégâts provoqués par le terrible typhon Haiyan. Les pertes actuelles de vies humaines liées à la tempête ne sont pour l’instant qu’une estimation. Les humanitaires venant du monde entier s’envolent maintenant vers l’archipel, ou sont seulement en train d’arriver. Avec les Philippins, ils vont venir en aide aux survivants et commencer à reconstruire.

Mais ils pourront être aidés par une technologie formidable, une collaboration humanitaire mondiale et massive rendue possible par le biais d’Internet.

De quoi s’agit-il ? D’une carte détaillée des zones touchées par le typhon Haiyan, qui n’existait pas il y a trois jours lorsque le typhon a frappé.

Depuis samedi, plus de 400 contributeurs ont effectué près de 750 000 ajouts sur la carte en ligne libre des Philippines et de ses environs.

Ces contributions reflètent l’état de la carte avant le passage du typhon, mais elles aideront les sauveteurs de la Croix-Rouge et les bénévoles à prendre des décisions cruciales afin de savoir où envoyer de la nourriture, de l’eau , des équipements.

Il est très facile ici d’exagérer, mais il est très probable qu’aux Philippines à l’heure actuelle, les données et logiciels de cartographie libres — ainsi que la communauté qui les supporte — sauveront des vies.

Le Wikipédia des cartes

Les changements ont été faits dans OpenStreetMap (OSM), une sorte de Wikipédia des cartes. OSM se veut être une carte complète du monde, libre d’utilisation et modifiable par tous. Créée en 2004, la plateforme a maintenant plus d’un million d’utilisateurs.

J’ai parlé avec Dale Kunce, un ingénieur de géolocalisation senior de la Croix-Rouge américaine, sur la façon dont l’aide apportée par les volontaires créant les cartes pouvait améliorer la situation aux Philippines.

La Croix-Rouge, à l’échelle internationale, a commencé récemment à utiliser des logiciels et des données libres au sein de ses différents projets, dit-il. Les logiciels libres réduisent ou éliminent les coûts cachés, ou le montant nécessaire pour que les choses continuent de fonctionner après le départ de la Croix-Rouge. N’importe quel logiciel ou donnée issu de la Croix-Rouge est aujourd’hui sous licence libre ou Creative Commons.

Bien qu’OpenStreetMap ait déjà été utilisé dans des crises humanitaires, c’est ici la première fois où la Croix-Rouge coordonne son utilisation avec celle des volontaires.

Comment les modifications ont-elles été effectuées ?

Les quelques 400 bénévoles qui ont édité OSM ces derniers trois jours ne sont pas tous des cartographes professionnels. À l’initiative de la branche humanitaire d’OpenStreetMap sur Twitter, l’appel fut lancé pour cartographier les zones qui se sont trouvées sur le chemin de la tempête.

À quoi ressemble la cartographie ? Généralement, il s’agit de « traçage » des routes dans OSM en se basant sur des données satellitaires. L’éditeur d’OSM met les images satellite en arrière-plan — sur lesquelles les infrastructures comme les routes sont clairement visibles — et au-dessus, la représentation du monde tel qu’il est cartographié par OSM. Les bénévoles peuvent alors tracer le chemin d’une route, comme cela est montré dans cette image GIF animée, créé par MapBox, une startup originaire de Washington :

9303509136_93ca3ef923_o.gif

Les bénévoles peuvent également dessiner les immeubles dans la partie Mapbox, en utilisant le même éditeur visuel. Depuis que Haiyan a frappé, les bénévoles ont ainsi retracé quelque 30 000 bâtiments.

Les cartes, sur le terrain

Comment des données cartographiques aident-elles les personnes sur le sol des Philippines ? Tout d’abord, elles leur permettent d’imprimer sur place des cartes en utilisant les donnée d’OSM pour ensuite les redistribuer sur le terrain. La Croix-Rouge américaine a envoyé quatre responsables de haut niveau aux Philippines, et parmi eux, Helen Welch, une spécialiste de la gestion de l’information, a apporté avec elle plus de 50 cartes papier décrivant la ville de Tacloban et d’autres zones fortement touchées.

462e7fb76.png

La ligne rouge montre la trajectoire du super-typhon Haiyan et les zones colorées montrent où les volontaires ont complété OpenStreetMap ce week-end. Notez l’étendue des modifications à Tacloban, une ville de plus de 220 000 habitants et qui est la plus touchée par le phénomène climatique.

Ces cartes ont été imprimées le samedi, avant que les volontaires n’aient fait la majorité des changements dans les zones concernées sur OSM. Quand ces nouvelles données seront imprimées sur le terrain, elles incluront presque tous les tracés des bâtiments, et les secouristes auront une meilleure représentation de l’endroit où les bâtiments « fantômes » devraient se trouver. Elles seront aussi sur papier, de manière à ce que les sauveteurs puissent y écrire, y dessiner et y indiquer des lieux.

Welch a atterri il y a 12 heures, et Kunce a dit qu’on lui avait déjà envoyé trois ou quatre cartes actualisées.

5e566f188.png

Une partie de la ville de Tacloban avant puis après sa cartographie par l’équipe d’OpenStreetMap Humanitarian (HOT). Les routes, les immeubles et les plans d’eau n’existaient pas avant que les contributeurs les ajoutent (@RBanick).

La Croix-Rouge a commencé à vouloir utiliser des données géospatiales après le gigantesque tremblement de terre en Haïti en 2010. En utilisant des données satellitaires pré-existantes, les volontaires ont cartographié la quasi totalité de Port-au-Prince dans OSM, créant des données qui devinrent la colonne vertébrale pour le logiciel qui a aidé à organiser l’aide et à gérer les opérations de recherche.

Les efforts considérables des volontaires ont convaincu les dirigeants de la Croix-Rouge américaine d’augmenter les équipes travaillant sur la cartographie numérique et les systèmes d’information géographique (SIG). Depuis cette décision, ils ont constaté une augmentation énorme de la qualité et de la quantité de cartes.

Mais ce n’est pas tout ce que les cartes peuvent faire.

La National Geospatial-Intelligence Agency (NGA, agence nationale de renseignement géospatiale), gérée par le département de la Défense des États-Unis, a déjà récupéré des images satellitaires des Philippines. Cette agence a décidé où se situaient les dégâts les plus importants, et a envoyé les coordonnées de ces zones à la Croix-Rouge. Mais, ce lundi à 19 h, la Croix-Rouge n’avait toujours pas les images pour ces zones.

Le but de l’équipe géospatiale de la Croix-Rouge, déclare Kunce, était d’aider les hommes sur le terrain à « prendre des décisions basées sur des preuves, pas des intuitions ». L’équipe « leur a fourni toutes les données possibles ». Qu’est-ce que cela signifie ? Grâce aux volontaires, la Croix-Rouge sait où les routes et bâtiments devraient être. Mais jusqu’à ce qu’ils aient le second jeu de données, décrivant la zone après le typhon, ils ne savent pas où se trouvent effectivement les routes et bâtiments. Tant qu’ils n’ont pas ces nouvelles données, les volontaires ne peuvent décider, par exemple, quel itinéraire parmi trois ils peuvent utiliser pour envoyer de l’eau à un village isolé.

À l’heure actuelle, ils ne peuvent pas prendre ces décisions.

Kunce a déclaré que le Département d’État américain était en négociation avec la NGA pour que les images satellites puissent être mises à la disposition de la Croix-Rouge. Mais, pour le moment, rien n’a encore été publié.

Quand les défenseurs des données ouvertes discutent à propos des licences de données, ils discutent rarement en termes de vie ou de mort. Mais à chaque heure qui passe pendant lesquelles la Croix-Rouge ne reçoit pas d’images satellite, ce sont des décisions optimales qui ne peuvent pas être prises, pour savoir où envoyer des équipements ou encore où mener des opérations de sauvetage.

Et une fois que les images satellites seront arrivées, les bénévoles OSM à travers le monde pourront alors les comparer aux structures d’avant la tempête, marquant chacun des 30 000 bâtiments comme indemnes, endommagés ou détruits. Cette phase, qui n’a pas encore commencé, va aider les secouristes à hiérarchiser leurs efforts.

OSM n’est pas la seule organisation à solliciter l’aide de volontaires en ligne afin d’aider les Philippines : MicroMappers, dirigé par un vétéran des efforts d’OSM en Haïti, a également fait des appels à des bénévoles pour trier des tweets, et ainsi déterminer les zones où les secours étaient les plus nécessaires.

Kunce m’a dit que la plus large diffusion commerciale des cartes électroniques a contribué de manière générale à leur croissance tant en quantité qu’en qualité au travers des différentes organisations humanitaires.

« Si vous mettez une carte entre les mains des gens, ils vont vous en demander une autre », a déclaré Kunce. Espérons que le gouvernement va fournir de meilleures cartes à la Croix-Rouge — et aux secours qui sont sur le terrain — et ce aussi vite que possible.




Le Brésil ne veut plus de logiciels impossibles à auditer

Avant Snowden, nous criions dans le désert.

Il en va tout autrement aujourd’hui. Et les gouvernements réalisent soudainement le danger d’avoir choisi des logiciels propriétaires qu’on ne peut évaluer et auditer faute d’accès au code source.

Il ne va pas être facile pour Microsoft, Apple et consorts de répondre ici aux exigences de transparence des autorités brésiliennes qui se tourneront naturellement vers le logiciel libre.

En attendant le tour de la France…

Edward Snowden - Laura Poitras - CC by

Le gouvernement brésilien va interdire l’achat des logiciels qui ne permettent pas leur plein contrôle

Governo vai barrar compra de software que impeça auditoria

Natuza Nery et Julia Borba – 5 novembre 2013 – Folha de S. Paolo
(Traduction : Ulan, Pierre, JonathanMM)

A partir de l’année prochaine, le gouvernement (brésilien) n’achètera plus d’ordinateurs ou de logiciels qui ne peuvent être pleinement audités par les pouvoirs publics. La directive a été publiée le 5 novembre dernier dans le journal officiel « Diario official da Uniao ».

Ainsi, les systèmes d’exploitation comme Windows (Microsoft) et MacOS (Apple) ne seront plus utilisés si les entreprises concernées font obstacle aux enquêtes sur l’espionnage informatique.

Actuellement, à l’installation d’un logiciel (propriétaire), les utilisateurs acceptent les termes d’utilisation de l’éditeur autorisant éventuellement celui-ci à accéder à leur ordinateur.

Le gouvernement brésilien souhaite avoir le droit de surveiller qui surveille ses concitoyens, et ce dans le but de pouvoir identifier et tracer les tentatives d’espionnage.

Selon le journal « Folha de São Paulo », l’intention n’est pas de promouvoir une conversion massive des parcs informatiques, mais prévenir que les produits actuels ne sont plus conformes aux nouvelles exigences.

De cette manière, il y aura un substitution graduelle des programmes traditionnels (propriétaires) pour des logiciels libres, comme Linux, si nous ne parvenons pas à négocier avec les grandes entreprises.

L’importance accordée par le gouvernement à l’espionnage a augmenté depuis qu’ont été publiés les dénonciations sur l’accès par les services américains aux archives des autorités et entreprises brésiliennes.

Économie

Le gouvernement considère que, en plus d’augmenter la sécurité, la directive entraînera des économies. L’utilisation de logiciels libres met un terme au renouvellement obligatoire des licences de ces programmes.

Interrogé pour la rédaction de cet article, Apple n’a pas souhaité répondre à cette décision.

Microsoft a informé qu’il fournit aux gouvernements « l’accès contrôlé au code source et aux autres informations techniques pour les aider à évaluer la sécurité des produits ». La société a également déclaré qu’elle se met à disposition du gouvernement brésilien pour discuter des détails de la mesure.

Valeur incertaine

Il n’y a pas encore d’estimation de l’impact de cette décision sur les dépenses gouvernementales. Les informations plus précises sur ces coûts ne seront dévoilées qu’après l’application de la directive, quand aura lieu une enquête sur les contrats actuellement en vigueur et les dates d’expirations de ceux-ci. Comme ces licences ont été obtenues à des moments différents, il n’est pas encore possible de faire d’estimation.

Le journal précise que le gouvernement de Dilma Rousseff étudie également avec détermination une autre mesure de sécurité informatique : installer le client de messagerie libre Expresso (Serpro) comme référence sur tout ordinateur public à la place de Outlook, ce qui engendrera des économies supérieures à 60 millions de reais par an (environ 20 millions d’euros).

Crédit photo : Laura Poitras (Creative Commons By)




Oublions Powerpoint avec Reveal.js

Pour se passer de Powerpoint, il y a Impress de LibreOffice bien sûr.

Mais il existe aussi de nombreuses solutions web issues du trio gagnant : JavaScript, HTML5 et CSS3).

Nous avons choisi avec cette traduction de mettre en valeur Reveal.js, avec une méthode de geek pour assurer l’archivage et retrouver facilement les différentes versions de vos présentations.

reveal.js

Enseigner avec l’application de présentation libre Reveal.js

Teaching with open source presentation service Reveal.js

Luis Ibanez – 30 octobre 2013 – OpenSource.com
(Traduction : Penguin, Genma, audionuma, cyrille, Omegax, Garburst)

OpenSource.com a un programme pour les modérateurs de communautés, et je suis fier d’en faire partie. Nous nous sommes récemment réunis dans le centre ville de Raleigh (en Caroline du Nord). L’une de nos discussions portait sur les logiciels open source pour l’éducation, et Ruth Suehle, qui dirige l’équipe marketing de Fedora tout en conseillant et en écrivant pour Opensource.com, a attiré notre attention sur les merveilles de Reveal.js, un nouvel outil de préparation de diapositives pour les présentations.

« C’est ce que les gens cool utilisent »dit-elle. Et dieu sait qu’elle avait raison !

Un rapide détour par la page d’exemples et de présentations permet de convaincre les plus sceptiques.

Les principales caractéristiques qui sortent du lot sont :

  • Les diapositives sont créées en écrivant du simple code HTML
  • Les présentations…
    • sont des pages HTML + Javascript
    • peuvent être vues sur n’importe quel appareil : téléphones, tablettes, ordinateurs.
  • Le contenu peut être mis dans un système de contrôle de version (par exemple Git/Github).
    • Ne vous est-il jamais arrivé de regarder une présentation d’une année passée et de vous demander s’il s’agit bien de la version que vous souhaitez utiliser ? Vous êtes vous jamais demandé quelles étaient les dernières modifications ?
  • L’hébergement Git permet la collaboration de plusieurs auteurs.
    • Tout comme avec n’importe quel projet collaboratif, différents auteurs peuvent ajouter du contenu, faire des commentaires, corriger les erreurs.
    • Et en cas de désaccord, ils peuvent toujours faire une branche dérivée, un fork, de ces présentations.

Voici quelques-unes des présentations qui ont été faites lors de notre cours « Pratiques des logiciels open-source » à l’École polytechnique Rensselaer et à l’université de l’État de New-York à Albany :

Pour ceux qui ne sont pas à l’aise avec l’écriture de code HTML, il y a un éditeur interactif : Slid.es, au sein duquel vous pouvez créer vos diapositives en utilisant une interface simple. Les présentations sont également hébergées, ainsi vous n’avez pas besoin de vous préoccuper de trouver un serveur web.

Pour ceux à qui écrire du code HTML plaît, la façon la plus facile de commencer est la suivante :

  • Consultez les nombreux exemples
    • Copiez ou forkez vos (exemples) favoris
    • Modifiez et créez le votre

La façon de faire pour du long terme est la suivante :

Enfin, le partager en retour !

Vous pouvez ajouter vos présentations en guise d’exemple pour les autres, en modifiant simplement les exemples de la page de présentation.

Remarquez que l’usage de Git (ou GitHub) n’est pas une nécessité, vous pouvez profitez de la joie d’utiliser Reveal.js comme un simple framework web. C’est juste qu’ajouter les fonctionnalités de Github tel que le contrôle de version, l’hébergement, le partage, donne une nouvelle dimension à la facilité d’usage de ce merveilleux outil.

Remarquez qu’il n’est pas nécessaire d’héberger vos présentations sur un serveur web. Vous pouvez toujours faire la présentation depuis votre pc portable en indiquant à votre navigateur web où se trouvent les fichiers HTML sur votre disque dur. Ce qui peut s’avérer très pratique quand on arrive en retard en classe, ou lorsque l’on a des changements à faire en dernière minute sur la présentation (ce qui bien sûr n’arrive jamais…:)).