Comment créer sa première Framacarte ? (Tutos uMap 2/4)

Juste avant Noël, nous vous présentions Framacartes, un service de création de cartes personnalisées pour vos sites web, communautés, randos, chasses au trésor… Framacartes est basé sur le logiciel Umap, qui permet d’ajouter des points, tracés et polygones sur les fonds de cartes d’OpenStreetMap.

C’est alors qu’Antoine Riche, ingénieur informatique, Contributeur et Formateur OpenStreetmap, nous a contactés pour nous présenter sa série de tutoriels (libres, eux aussi) pour apprendre à maîtriser uMap (et donc Framacartes) à toute la famille Dupuis-Morizeau.

C’est avec son autorisation (et de chaleureux remerciements) que nous reproduirons sur le framablog les quatre premiers tutos (le niveau « débutant ») afin d’en faire profiter le plus grand nombre.

La semaine dernière nous nous sommes familiarisés avec uMap pour profiter pleinement d’une Framacarte

Cette semaine, voyons comment créer sa première Framacarte 😉

Je crée ma première carte uMap

Ce que nous allons apprendre

  • distinguer le mode édition du mode consultation
  • identifier les étapes nécessaires pour créer une carte
  • produire une première carte et la diffuser !

Procédons par étapes

L’objet de notre première carte est simple : positionner un ou plusieurs lieux (domicile, vacances, travail, etc.). Procédons par étapes.

1. Le mode édition

Rendez-vous sur le site https://framacarte.org et cliquez sur le bouton Créer une carte. Apparaît alors sur votre navigateur une carte qui se présente ainsi :

umap_edition

 

Nous retrouvons à gauche les boutons disponibles lors de la consultation d’une carte. Plusieurs éléments visibles au-dessus et à droite de la carte sont visibles uniquement lorsque l’on crée ou modifie une carte, c’est-à-dire dans le mode édition :

  • le nom de la carte en haut à gauche
  • les boutons Annuler et Enregistrer en haut à droite
  • à droite une série de 3 boutons permettant d’ajouter des éléments à la carte : marqueurs, lignes et polygones
  • en-dessous une série de 5 boutons permettant de configurer la carte

2. Nommer la carte

umap_parameters

umap_set_nameUne carte doit porter un nom qui renseigne sur ce que représente la carte. Pour définir le nom de la carte, cliquez sur le bouton Éditer les paramètres.

Un panneau apparaît sur la droite de la carte, il contient en haut un champ de saisie pour le nom de la carte, qui contient le texte Carte sans nom : placez le curseur dans ce champ, supprimez le texte existant et saisissez le nom de votre carte, par exemple Mon domicile.

Notez que le nom en haut à gauche de la carte est immédiatement modifié. Vous pouvez également saisir un texte plus long dans le champ description, qui apparaîtra dans le panneau de légende – nous y reviendrons.

Maintenant sauvegardez la carte avec le bouton Enregistrer : un texte en anglais est affiché en haut de la carte, comme celui ci-dessous.

umap_create_anonymous

Ce texte explique que vous venez de créer une carte anonyme et vous donne un lien (une URL) pour pouvoir modifier la carte. En effet la carte que vous avez créée n’est associée à aucun compte, et uMap considère que seules les personnes ayant ce lien secret peuvent la modifier. Vous devez donc conserver ce lien si vous souhaitez pouvoir modifier la carte. Nous verrons dans le prochain tutoriel comment créer son catalogue de cartes en utilisant un compte, il n’est alors pas nécessaire de conserver de lien secret.

3. Ajouter un marqueur

Commencez par déplacer et zoomer la carte pour visualiser l’endroit précis de votre domicile, lieu de vacances ou de travail.

umap_point Cliquez ensuite sur le bouton Ajouter un marqueur. Le curseur prend la forme d’un signe + et est accompagné d’un marqueur de couleur bleue. Déplacez le curseur sur le lieu que vous voulez marquer et cliquez avec le bouton gauche de la souris : le marqueur est déposé à cet endroit et un panneau apparaît à droite.

umap_marqueurCe panneau vous permet d’associer un nom et une description au marqueur :

  • le nom sera affiché au survol du marqueur par la souris
  • le nom et la description seront visibles dans une fenêtre dite popup qui apparaîtra lors d’un clic sur le marqueur.

Nous verrons plus loin l’utilité des calques, et comment modifier les propriétés du marqueur : forme, couleur, pictogramme, etc.

Répétez l’opération pour ajouter les marqueurs que vous jugez utiles à votre carte.

4. Définir l’emprise de la carte

Il est important de définir l’emprise initiale de la carte, c’est-à-dire la partie du planisphère qui sera affichée lors de la consultation de la carte.

Cette emprise doit inclure votre marqueur et permettre de situer la carte. Il convient de trouver un compromis entre un zoom trop éloigné et un zoom trop rapproché. Le bon compromis dépend essentiellement du contenu de la carte : la majorité des marqueurs, lignes et polygones doivent être visibles et utiliser au mieux l’étendue de la carte.

Vous pouvez aussi considérer le public de la carte : une carte expédiée à votre voisin peut être très zoomée, une carte envoyée un correspondant étranger doit permettre de reconnaître le pays où se trouve votre carte.

umap_extentPour définir l’emprise, déplacez et zoomez la carte afin d’afficher l’emprise souhaitée puis cliquez sur le bouton Enregistrer le zoom et le centre actuels.

uMap enregistre en réalité le centre et le niveau de zoom. Selon la taille de la fenêtre où est affichée la carte, la partie visible pourra varier. Il est utile de prévoir une marge autour du contenu de la carte.

5. Enregistrer la carte

Toute modification de la carte doit être sauvegardée sur le serveur uMap en cliquant sur le bouton Enregistrer en haut à droite. Cette opération enregistre toutes les modifications depuis la dernière sauvegarde : vous pouvez donc réaliser plusieurs modifications à la suite puis les enregistrer. A l’inverse le bouton Annuler permet de supprimer toutes les modifications depuis la dernière sauvegarde.

Après avoir enregistré les modifications, le bouton Annuler est remplacé par Désactiver l’édition. Cela vous permet de quitter le mode édition pour voir la carte en mode consultation. Vous pouvez alors tester votre carte : cliquez sur le marqueur pour afficher la popup et vérifier son nom et sa description.

Félicitations ! Vous avez créé votre première carte uMap. Vous pouvez la diffuser à votre entourage en copiant son URL dans la barre d’adresse du navigateur, ou en copiant son URL courte disponible dans le menu Partager vu dans le tutoriel Je consulte une carte uMap.

Faisons le point

Votre première carte est créée, en quelques étapes. L’opération est assez simple, mais le résultat est somme toute assez sommaire. Le tutoriel de la semaine prochaine nous permettra de créer une jolie carte.

Liens utiles :




Comment consulter une Framacarte ? (Tutos uMap 1/4)

Juste avant Noël, nous vous présentions Framacartes, un service de création de cartes personnalisées pour vos sites web, communautés, randos, chasses au trésor… Framacartes est basé sur le logiciel Umap, qui permet d’ajouter des points, tracés et polygones sur les fonds de cartes d’OpenStreetMap.

C’est alors qu’Antoine Riche, ingénieur informatique, Contributeur et Formateur OpenStreetmap, nous a contactés pour nous présenter sa série de tutoriels (libres, eux aussi) pour apprendre à maîtriser uMap (et donc Framacartes) à toute la famille Dupuis-Morizeau.

C’est avec son autorisation (et de chaleureux remerciements) que nous reproduirons sur le framablog les quatre premiers tutos (le niveau « débutant ») afin d’en faire profiter le plus grand nombre.

Cette semaine, on apprend tout simplement à se familiariser avec uMap et à profiter pleinement d’une Framacarte !

Je consulte une carte uMap

Ce que nous allons apprendre

  • Manipuler une carte uMap
  • Partager une carte uMap
  • Connaître les principales fonctionnalités de uMap

Procédons par étapes

1. Manipuler la carte

Vous avez reçu par mail un lien vers une carte umap. Voici les principaux éléments de la carte, et les opérations disponibles pour la manipuler. La carte umap représentée ci-dessous est disponible ici.

utiliser_une_framacarte

À droite de la carte et selon le choix de son auteur peut être affiché un des deux panneaux suivants :

  • Légende : le titre de la carte, une description éventuelle, et la liste des calques
  • Visualiser les données : l’ensemble des éléments de la carte, répartis par calques (voir plus bas)

Le panneau Légende peut être affiché en cliquant sur le mot “Légende”, toujours visible en bas à droite de la carte.

Comme pour la plupart des cartes interactives vous pouvez :

  • déplacer la carte par un glisser-déposer
  • effectuer zooms avant et arrière avec les boutons + et -, ou avec la molette de la souris
  • sélectionner un élément de la carte par un clic de la souris : apparaît alors une fenêtre popup affichant une description de l’élément. Celle-ci peut inclure du texte, une image, un lien vers un site Web. Dans notre exemple la description de chaque cinéma contient une image qui est un lien sur le site Web du cinéma.

Remarque : les boutons en haut à gauche de la carte, ainsi que la barre de légende, peuvent ne pas être disponibles si l’auteur de la carte a choisi de les cacher.

Voyons maintenant quelques fonctionnalités propres à umap.

2. Le sélecteur de calques

Les éléments d’une carte umap peuvent être répartis dans plusieurs calques, ou couches. Cela permet de structurer une carte, pour qu’elle soit plus claire et plus facile à maintenir. L’utilisateur peut choisir d’afficher ou cacher chaque calque individuellement.

umap_calquesLe sélecteur de calques est l’icône visible en haut à gauche de la carte sous les boutons de zoom. Lorsque vous positionnez la souris sur ce bouton, la liste des calques apparaît, vous pouvez alors afficher ou cacher chaque calque, ou encore centrer la carte sur le contenu d’un calque.
umap_selecteur_calquesDans cet exemple le calque “Stations Bicloo” est caché : cliquer sur l’oeil de ce calque permet de l’afficher.

La liste des calques, avec éventuellement un descriptif de chaque calque, est aussi visible dans la légende de la carte.

3. Le bouton Plus

umap_plusSous le sélecteur de carte est visible un bouton portant le texte “Plus”. Un clic sur ce bouton fait apparaître une série de boutons.

 

umap_home permet de retourner à la page d’accueil de umap.
umap_geoloc permet de vous géolocaliser1), c’est-à-dire centrer la carte sur votre position actuelle.
umap_search permet de chercher une localité et de centrer la carte dessus : saisissez le nom d’une commune et tapez sur Entrée.
umap_share permet de partager la carte ou d’en exporter les données. Un panneau à droite de la carte est affiché, il est expliqué ci-dessous.
umap_layers affiche à droite plusieurs fonds de carte : cliquer sur l’un d’eux change le fond de la carte.
 umap_edit est utile pour améliorer la carte OpenStreetMap – ce qui sort de l’objet de ce tutoriel.
 umap_measure est un outil de mesure. Activer cet outil a deux effets : d’une part il affiche la longueur des éléments linéaires de la carte et l’aire des éléments surfaciques ; d’autre part il vous permet de tracer sur la carte une ligne dont la longueur est affichée. Cliquez à nouveau sur le bouton pour désactiver cet outil.

Partager la carte

Le panneau de partage de la carte offre trois possibilités. Votre choix dépend de la manière dont vous souhaitez partager la carte :

  • URL courte permet de copier une URL abrégée – équivalente à l’URL de la carte – que vous pouvez par exemple envoyer dans un mail.
  • Embarquer la carte en iframe permet d’inclure la carte dans une page Web : il suffit de copier le code HTML et de l’insérer dans celui de votre page Web. Plusieurs options sont disponibles dans le menu Options d’export de l’iframe : taille de la carte, choix des boutons inclus dans la carte, etc. Activez ou désactivez ces options avant de copier le code HTML.
  • Télécharger les données permet d’obtenir les données visibles sur la carte, dans différents formats. Cela peut vous permettre d’utiliser ces données avec un autre outil.

 

umap_donnees4. Visualiser les données

La liste des éléments de la carte peut être affichée avec un clic sur Visualiser les données, accessible depuis le sélecteur de calques, la barre de légende, ou encore en haut du panneau Légende.

Le panneau alors visible à droite montre l’ensemble des éléments de la carte, organisés par calques. La loupe à gauche de chaque élément permet d’afficher sur la carte la popup décrivant cet élément. Le texte de saisie au-dessus de la liste permet de rechercher un élément, en ne montrant que ceux dont le nom contient le texte saisi.


Faisons le point

Ce premier tutoriel nous a permis de découvrir les principales fonctionnalités d’une carte uMap. La semaine prochaine nous apprendrons à créer une telle carte.

 

Notes :

1) La géolocalisation exige de demander l’autorisation de l’utilisateur, votre navigateur Web peut donc vous demander d’accepter ou activer la géolocalisation

Liens utiles :




Il a choisi Linux et s’en félicite

Dan Gillmor, qui avait l’an dernier expliqué pourquoi il disait au revoir à google, Microsoft et Apple dans un article que nous avons publié, fait aujourd’hui le point sur ses choix et constate qu’il ne regrette rien. D’autres bonnes raisons de migrer sont apparues, comme l’accélération de la re-centralisation du Web, l’hégémonie croissante des grands acteurs et bien sûr la surveillance généralisée.

Dan Gillmor évoque avec précision les matériels et logiciels qu’il a adoptés progressivement, fait état également sans à priori des avancées et des faiblesses des produits open source. Il reconnaît la difficulté relative du passage au Libre intégral (il peine encore à se dégoogliser 😉 ) mais les valeurs qu’il défend sont celles de l’indépendance, du choix libre pour l’utilisateur de ses usages et de ses produits…

Je suis passé à Linux et c’est encore mieux que ce que j’espérais

Dire adieu à Microsoft et Apple n’a jamais été aussi facile, ni aussi satisfaisant

par Dan Gillmor

Article original sur Medium : I Moved to Linux and It’s Even Better Than I Expected
Traduction Framalang : line, goofy, Sphinx, r0u, david_m, Manegiste, sebastien, teromene, galadas, roptat, Omegax, didimo

danGillmorUn beau jour du printemps 2012, j’ai refermé mon MacBookAir pour la dernière fois. À partir de ce moment, mon environnement informatique (en tout cas, en ce qui concerne mon portable) était GNU/Linux. J’ai abandonné, autant que possible, les environnements propriétaires et obsédés du contrôle qu’Apple et Microsoft ont de plus en plus imposés aux utilisateurs d’ordinateurs personnels.

Presque quatre ans plus tard, me voici, et j’écris cet article sur un portable qui tourne sous le système d’exploitation Linux, avec LibreOffice Writer, et non sur une machine Mac ou Windows avec Microsoft Word. Tout va bien.

Non, c’est même mieux que ça, tout est sensationnel.

Je recommanderais ce changement à beaucoup de personnes (pas à tout le monde, ni à n’importe quel prix, mais à quiconque n’est pas effrayé à l’idée de poser une question à l’occasion, et plus particulièrement quiconque réfléchit à la trajectoire prise par la technologie et la communication au 21ème siècle). Plus que tout, aux gens qui se soucient de leur liberté.

Ils nous ont donné plus de confort, et nous avons dit collectivement : « Génial ! »

L’informatique personnelle remonte à la fin des années 1970. Elle a défini une ère de la technologie où les utilisateurs pouvaient adapter ce qu’ils achetaient de toutes sortes de manières. Lorsque l’informatique mobile est arrivée sous la forme de smartphones, la tendance s’est inversée. Les constructeurs, en particulier Apple, ont gardé bien plus de contrôle. Ils nous ont donné plus de confort, et nous avons dit collectivement : « Génial ! ».

Il y a quelques mois, lorsque Apple a annoncé son iPad Pro, une grande tablette avec un clavier, son président Tim Cook l’a appelée « la plus claire expression de notre vision pour le futur de l’informatique personnelle ». « Ouh là, ça craint » me suis-je dit à ce moment-là. Entre autres, dans l’écosystème iOS, les utilisateurs ne peuvent obtenir leurs logiciels que sur l’Apple store, et les développeurs sont obligés de les vendre au même endroit seulement. C’est peut-être la définition de l’informatique personnelle pour Apple, mais pas pour moi.

Pendant ce temps-là, Windows 10 de Microsoft (sur presque tous les points, une grande avancée en termes de facilité d’utilisation par rapport à Windows 8) ressemble de plus en plus à un logiciel espion déguisé en système d’exploitation (une appellation qui pourrait être injuste, mais pas de beaucoup). Oui, la mise à jour depuis les versions précédentes, extrêmement répandues, est gratuite, mais elle prend des libertés extraordinaires avec les données des utilisateurs et le contrôle de ceux-ci, d’après ceux qui en ont analysé le fonctionnement interne.

Ce n’est pas exactement un duopole commercial. Le système d’exploitation Chrome OS de Google fait tourner un nouvel arrivant : le Chromebook, vendu par différents constructeurs. Mais il comporte plus de limites et oblige ses utilisateurs à être totalement à l’aise (je ne le suis pas) sous l’emprise d’une entreprise qui repose sur la surveillance pour soutenir son modèle économique basé sur la publicité.

Ainsi, pour ceux qui ont le moindre intérêt à garder une indépendance substantielle dans l’informatique mobile ou de bureau, Linux semble être le dernier refuge. Sur toute une gamme de machines, des super-ordinateurs aux serveurs, en passant par les téléphones portables et les systèmes embarqués, Linux est déjà incontournable. Je suis content d’avoir franchi le pas.

Avant d’expliquer le comment, il est vital de comprendre le contexte de ma petite rébellion. La re-centralisation est la nouvelle norme dans les technologies et les communications, une tendance qui m’a préoccupé il y a quelque temps sur ce site, quand je décrivais de manière plus générale mes efforts pour me sevrer des produits et services d’entreprises fournis par Apple (c’est fait), Microsoft (fait en grande partie) et Google (encore difficile). Le gain en confort, comme je le disais à l’époque, ne vaut pas les compromis que nous concédons.

Un duopole mobile ?

Comme j’en discuterai plus bas, je dois me demander à quel point il est pertinent de déclarer son indépendance sur son ordinateur personnel, puisque l’informatique évolue de plus en plus vers les appareils mobiles. Qu’on le veuille ou non, Apple et Google en ont plus ou moins pris le contrôle avec iOS et Android. Apple, comme je l’ai dit, est un maniaque obsédé du contrôle. Même si Google distribue gratuitement une version ouverte d’Android, de plus en plus de pièces essentielles de ce système d’exploitation sont intégrées en un amas logiciel terriblement verrouillé qui emprisonne les utilisateurs dans le monde de Google contrôlé par la publicité. Peut-on parler de « duopole » mobile ?

La re-centralisation est particulièrement terrifiante au vu du pouvoir croissant de l’industrie des télécommunications, qui se bat bec et ongles pour contrôler ce que vous et moi faisons des connexions que nous payons, malgré le jugement bienvenu de la FCC (commission fédérale des communications aux États-Unis) en faveur de la « neutralité du net » en 2015. Comcast détient le monopole du véritable haut débit sur la vaste majorité de son territoire, même si l’on distingue quelques concurrents ici et là. Les fournisseurs d’accès par câble avancent rapidement pour imposer des limites d’utilisation qui n’ont rien à voir avec la capacité disponible et tout à voir avec l’extension de leur pouvoir et de leurs profits, comme l’expliquait en détail Susan Crawford. Et les fournisseurs de téléphonie mobile piétinent allègrement la neutralité du net avec leurs services « zero-rated » (où l’accès à certains services spécifiques n’est pas décompté du volume de données du forfait), que la FCC considère de manière incompréhensible comme innovants.

Pendant ce temps, pour la simple et bonne raison que les utilisateurs préfèrent souvent le confort et la simplicité apparente d’un outil à la garantie de leurs libertés, des acteurs centralisés comme Facebook se constituent des monopoles sans précédents. Comme pour Google et son outil de recherche, ils recueillent les bénéfices grandissants des effets du réseau, que des concurrents vont trouver difficile sinon impossible à défier.

Goulets d’étranglement

N’oublions pas le gouvernement, qui a horreur de la décentralisation. Les services centralisés créent des goulots d’étranglement et rendent le travail facile aux services de police, espions, contrôleurs et service des impôts. L’état de surveillance raffole de la collecte de données sur ces goulots d’étranglement, ce qui met finalement en danger les communications et libertés de tous.

Les goulots d’étranglement permettent aussi de soutenir des modèles économiques qui génèrent beaucoup d’argent pour les campagnes politiques. Hollywood en est un excellent exemple ; la quasi prise de contrôle du Congrès par les lobbies du copyright a conduit à l’adoption de lois profondément restrictives comme dans le système du copyright en vigueur.

Les droits d’auteur sont la clé de ce que mon ami Cory Doctorow appelle « la prochaine guerre civile dans l’informatique générique », une campagne, parfois agressive, pour empêcher les gens qui achètent du matériel (vous et moi, de manière individuelle et dans nos écoles, entreprises et autres organisations) de réellement en être propriétaires. Les lois sur le droit d’auteur sont l’arme des maniaques du contrôle, puisqu’elles les autorisent à nous empêcher par des moyens légaux de bricoler (ils diraient trafiquer) les produits qu’ils vendent.

Les perspectives ne sont pas toutes aussi sombres. Le mouvement des makers ces dernières années est l’un des antidotes à cette maladie du contrôle total. Il en est de même avec les composantes-clés de la plupart des projets de makers : les projets de logiciel libre et open source dont les utilisateurs sont explicitement encouragés à modifier et copier le code.

linuxpenguinFighter

Image par Ian Burt via Flickr | CC BY 2.0

C’est là que Linux entre en scène. Même si nous nous servons davantage de nos appareils mobiles, des centaines de millions d’entre nous travaillent encore beaucoup avec leurs ordinateurs mobiles et de bureau. Linux et les autres logiciels développés par la communauté ne représentent peut-être qu’une solution partielle, mais clairement utile. Il vaut mieux commencer avec quelque chose et l’améliorer, que d’abandonner directement.

J’ai installé Linux un bon nombre de fois au cours des dernières années, depuis qu’il est devenu un véritable système d’exploitation. Mais je suis toujours retourné sous Windows ou Mac, en fonction de mon système principal de l’époque. Pourquoi ? Il restait encore trop d’aspérités et, pendant longtemps, Linux n’avait pas assez d’applications pour réaliser ce dont j’avais besoin. Les inconvénients étaient trop importants pour ma patience limitée, en utilisation quotidienne.

Mais cela s’est progressivement amélioré et, en 2012, j’ai décidé qu’il était temps. J’ai demandé à Cory Doctorow quelle version de Linux il utilisait. C’était une question fondamentale, car Linux se décline en de nombreuses variantes. Les développeurs ont pris le noyau essentiel du code et ont créé différentes versions, adaptées aux divers besoins, goûts et genres d’informatique. Bien que tous utilisent les composants essentiels, sur le modèle du logiciel libre, certains ajoutent du code propriétaire, comme Flash, pour mieux s’adapter aux pratiques informatiques des utilisateurs. Le matériel représentait également une question cruciale, car les ordinateurs ne sont pas tous gérés de manière fiable par Linux, à cause des incompatibilités matérielles.

Cory m’a dit qu’il utilisait Ubuntu sur un Lenovo ThinkPad. J’étais déjà convaincu par les ThinkPads, grâce à la fiabilité du matériel et le bon service après-vente du constructeur, sans oublier la possibilité de mettre à jour les composants matériels internes. Comme j’ai tendance à acheter des modèles récents, je rencontre parfois des problèmes de compatibilité avec le matériel Lenovo le plus récent. J’ai bricolé mon modèle actuel, un T450s, par tous les moyens, en remplaçant le disque dur mécanique par un disque SSD rapide et en ajoutant autant de mémoire vive (RAM) que j’ai pu.

Je penchais également pour Ubuntu, une version de Linux créée par une entreprise appelée Canonical, avec à sa tête un ancien entrepreneur informatique du nom de Mark Shuttleworth, que je connais aussi depuis longtemps. Ubuntu est connu pour son excellente gestion des ThinkPads, surtout s’ils ne sont pas flambants neufs. J’ai utilisé Ubuntu sur quatre ThinkPads différents depuis ma conversion. On apprécie Ubuntu à l’usage parce que Canonical a une vision bien définie de la façon dont les choses doivent fonctionner.

Libre à vous de tester une autre « distribution » Linux, comme on appelle les différentes versions. Il y en a trop pour les nommer toutes, ce qui est à la fois le meilleur et le pire atout de l’écosystème Linux. Les nouveaux utilisateurs devraient presque toujours essayer une des distributions les plus populaires, qui aura été testée de manière plus poussée et offrira la meilleure assistance de la part de la communauté ou de l’entreprise qui l’a créée.

linuxMint

L’une de ces distributions est Linux Mint. Elle est basée sur Ubuntu (qui est elle-même basée sur Debian, une version encore plus proche de la version de base de Linux). Mint m’est apparue comme à beaucoup d’autres personnes comme probablement la meilleure distribution Linux pour ceux qui ont utilisé des systèmes propriétaires et souhaitent la transition la plus simple possible. Je suis parfois tenté de changer moi-même, mais je vais garder Ubuntu, à moins que Canonical ne le foire complètement, ce que je n’espère pas.

Avant de faire le grand saut, j’ai demandé à bon nombre de personnes des conseils sur la façon migrer au mieux mes usages informatiques depuis des programmes propriétaires vers des programmes open source. Plusieurs m’ont suggéré ce qui s’est avéré être un bon conseil : j’ai cessé d’utiliser l’application Mail d’Apple et j’ai installé Thunderbird de Mozilla sur mon Mac, et après un mois, je me suis tellement habitué à cette manière différente (pas si différente non plus) de gérer mon courrier électronique (non, je n’utilise pas Gmail, sauf pour un compte de secours). J’ai aussi installé LibreOffice, une sorte de clone open source de Microsoft Office, qui est moins courant mais adéquat pour arriver à ses fins dans la plupart des cas.

Comme la plupart des gens qui utilisent un ordinateur personnel, je passe mon temps presque exclusivement sur tout petit nombre d’applications : navigateur internet, client courriel, traitement de texte. Sous Linux, j’ai installé Firefox et Chromium, une variante open source du Chrome de Google. Comme déjà mentionné, Thunderbird faisait bien son job pour gérer mes courriels, et LibreOffice était satisfaisant en tant que logiciel de traitement de texte.

Mais j’avais encore besoin d’utiliser Windows pour certaines choses. En particulier, le logiciel de cours en ligne que j’utilisais à mon université refusait de fonctionner sous Linux, quel que soit le navigateur utilisé. J’ai donc installé Windows dans une machine virtuelle, afin de faire tourner Windows et ses programmes à l’intérieur de Linux. J’ai aussi installé Windows sur une partition séparée de mon disque dur pour les occasions encore plus rares où j’aurais besoin d’utiliser un Windows natif, contrairement à un Windows virtuel ce qui réduit les performances.

Aujourd’hui je n’ai presque plus jamais besoin de Windows. LibreOffice s’est énormément amélioré. Pour l’édition collaborative, Google Docs (hum… j’ai déjà dit que se passer de Google est difficile, hein ?) est difficile à battre, mais LibreOffice progresse. Le logiciel utilisé dans mon université pour les cours en ligne fonctionne maintenant avec Linux. Le seul programme pour lequel j’ai encore besoin de Windows est Camtasia, pour le « screencasting » – enregistrer (et diffuser) ce qu’affiche l’écran, ainsi que le son. Plusieurs programmes de screencasting existent sous Linux, mais ils sont limités. Et parfois, je suis obligé d’utiliser MS PowerPoint pour lire les rares diaporamas qui hoquètent avec le logiciel de présentations de LibreOffice (Impress).

Étrangement, le plus compliqué, dans cette transition, fut de m’adapter aux différentes conventions utilisées pour les claviers : désapprendre le style Apple et réapprendre les combinaisons Windows, équivalentes pour la plupart à celles utilisées par Linux. Au bout de quelques mois, tout était rentré dans l’ordre.

La fréquence de mise à jour des logiciels est un des aspects que je préfère avec Linux. Ubuntu et de nombreuses autres versions proposent régulièrement des mises à jour même si je préfère choisir les versions qui disposent d’un support étendu (aussi appelées versions « LTS » soit Long Term Support en anglais). Ils corrigent rapidement les failles de sécurité qui sont trouvées et il se passe souvent moins d’une semaine entre deux mises à jour, un rythme beaucoup plus élevé que celui auquel j’étais habitué avec Apple.

migrationSimple

Ce que j’aime le moins avec Linux, c’est qu’il faut parfois faire quelque chose qui pourrait paraître intimidant pour un nouvel utilisateur. Personne ne devrait avoir à ouvrir une interface en ligne de commande pour saisir sudo apt-get update ou autre. Personne ne devrait avoir à faire face à un avertissement indiquant que l’espace disque est insuffisant pour que la mise à jour du système puisse être appliquée (ce qui nécessitera alors de retirer les composants obsolètes du système d’exploitation, une opération qui n’est pas à la portée de tout le monde). Personne ne devrait découvrir, après une mise à jour, qu’un composant matériel a cessé de fonctionner, ce qui m’est arrivé avec mon trackpad, inutilisable jusqu’à ce que je trouve une solution grâce à un forum (oui, cela peut arriver avec Windows mais les fabricants testent beaucoup plus le fonctionnement de leur matériel avec les logiciels Microsoft. Quant à Apple, ça arrive également, mais il a l’avantage de produire du matériel et des logiciels qui sont associés de façon harmonieuse).

gillmordesktop

Le bureau de Dan Gillmor sous Ubuntu

Lorsqu’il y a un problème, les communautés apparues autour du logiciel libre et open source s’avèrent incroyablement utiles. Poussant toujours un peu les limites pour adopter ce système, je demande souvent de l’aide. Je reçois toujours des réponses. Certains experts super pointus de ces forums peuvent être condescendants voire irrespectueux si on ose poser une question qui leur semblera simplissime ou qui a déjà reçu une réponse par ailleurs. On trouve également cette aide précieuse (et cette éventuelle intempérance) pour Windows, Mac et les autres systèmes mobiles (certains fanatiques d’Apple sont parfois étonnamment violents avec les hérétiques) mais il existe une atmosphère unique lorsqu’il s’agit de personnes œuvrant sur des technologies ouvertes, pour tous.

Si vous souhaitez essayer Linux sur votre ordinateur, c’est plutôt simple. Ubuntu, ainsi que d’autres distributions, vous permettent de créer un DVD ou une clé USB contenant le système d’exploitation et de nombreuses applications et vous pouvez démarrer votre ordinateur en utilisant ce support de test. C’est une bonne technique pour savoir si le matériel que vous avez à votre disposition fonctionnera avec. Ce sera vraisemblablement le cas si vous n’utilisez pas un ordinateur flambant neuf. Linux brille particulièrement par son support des ordinateurs déjà anciens.

Pour éviter les soucis d’installation de Linux, on peut acheter un ordinateur avec le système d’exploitation pré-installé et obtenir des mises à jour régulières, adaptées au matériel. J’ai réfléchi à différents modèles fabriqués par des entreprises comme Dell, System76, ZaReason entre autres. Je viens de visiter une entreprise appelée Purism, qui vend des ordinateurs portables construits uniquement avec du matériel et du logiciel non-propriétaire, du moins autant qu’il est possible à l’heure actuelle. Le modèle Librem 13 est impressionnant, Purism a adapté Linux pour ce matériel ergonomique et j’ai hâte de l’essayer.

Je voyage beaucoup et penche plutôt en faveur d’une entreprise qui dispose de point de dépôt dans différents pays et qui (avec le coût que ça implique) pourra dépêcher un technicien chez moi, à mon bureau ou à mon hôtel si ma machine tombe en panne. Si je dois abandonner Lenovo (et les dernières affaires à leur sujet me font douter), je me dirigerai probablement vers les machines Dell fournies avec Linux.

Vous avez pu remarquer que je n’ai presque pas abordé la question du coût. Pour le système d’exploitation, ce n’est plus nécessaire car Microsoft et Apple ont fait fondre le prix apparent de leur système d’exploitation et il apparaît comme nul. Bien entendu, vous le payez toujours quand vous achetez un ordinateur. Cela dit, même les mises à jour importantes sont devenues gratuites, un changement fondamental si on regarde en arrière. Cependant, en ce qui concerne Microsoft, la « gratuité » semble exister au détriment de la collecte intrusive des données.

En revanche, pour les applications, c’est une autre histoire. Vous pouvez économiser beaucoup d’argent en utilisant des logiciels libres et open source. Comparé à LibreOffice, Microsoft Office reste cher même si les versions de base « Famille et Étudiant » sont abordables et que beaucoup de personnes utilisent MS Office grâce à la version fournie par leur école ou leur entreprise.

Mais voilà, j’apprécie de payer pour certains logiciels, car je veux être sûr, autant que possible, que j’aurai de l’aide si besoin et que les développeurs auront une source de motivation pour continuer à corriger et à améliorer le logiciel. Je serais heureux de pouvoir payer pour des versions de Camtasia et Scrivener sur Linux (ce dernier possède une version communautaire pour Linux). En attendant, je fais des dons à différents projets dont j’utilise les logiciels régulièrement, qu’ils soient créés par des entreprises ou intégralement développés par des bénévoles. Ubuntu a beau être une entreprise qui gagne de l’argent en fournissant des services (une approche populaire et éprouvée dans le monde du logiciel libre et open source), je continue d’y donner. Avec moi, LibreOffice a gagné un utilisateur, mais aussi un donateur. Il en va de même pour d’autres projets.

Linux reste en arrière, enfin « officiellement », quand il s’agit de lire des DVD. Il faut installer certains logiciels jugés illégaux par le cartel du divertissement afin de pouvoir lire les disques que vous avez achetés (Apple a l’air d’un parangon de liberté par rapport à Hollywood). L’utilisation de services de streaming comme Netflix ou Amazon peut également être source d’ennuis. Enfin ça devient plus simple grâce à… humpf l’ajout de verrous numériques (NdT : DRM ou Digital Rights Management) dans certains navigateurs.

Est-ce que tous ces ajustements en valent la peine ? Je dirais que oui. Tout ce qui améliore ou préserve notre capacité à utiliser les technologies comme nous l’entendons en vaut la chandelle par rapport aux voies imposées par des pouvoirs centralisés. Et si nous ne sommes pas plus nombreux à essayer, ces monstres du contrôle verront leur victoire assurée.

Il est probablement presque trop tard pour que Linux devienne un système d’exploitation extrêmement populaire, dans les pays développés tout au moins. Mais il n’est pas trop tard pour que suffisamment d’entre nous l’utilisent afin de garantir des libertés informatiques pour ceux qui les veulent.

Que pouvons-nous faire à propos des écosystèmes mobiles, si nous ne voulons pas leur laisser l’hégémonie sur toute l’informatique personnelle, voilà bien le problème. Des versions tierces d’Android ont émergé au travers de communautés dynamiques telles que XDA Developers, qui veulent plus de liberté. Ubuntu travaille sur un système d’exploitation mobile parmi d’autres nombreux acteurs de la communauté open source ; des années ont été dédiées à tendre vers un système d’exploitation qui puisse fonctionner sur tous les appareils. Mais la domination d’Apple et Google sur le monde mobile en intimide plus d’un.

nous avons vraiment le choix

J’essaie en ce moment beaucoup d’options parmi les appareils possibles dans l’espoir que j’en trouverai un qui soit suffisamment bon pour une utilisation au quotidien, même s’il devait ne pas être aussi pratique que les propriétés privées bien gardées des géants de l’internet (un de mes téléphones est actuellement sous un système d’exploitation appelé Cyanogenmod). Bientôt, je vous en dirai plus sur la façon dont ça se passe.

En attendant, souvenez-vous : nous avons vraiment le choix – nous pouvons faire des choix qui repoussent les limites des libertés technologiques. Récemment, mon choix a consisté à me détacher libérer de l’emprise de ceux qui veulent tout contrôler. J’espère vous donner à réfléchir pour faire de même. En fonction de ce que nous choisissons, nous avons beaucoup à gagner, et à perdre.

(1) Même si cela va vexer certaines personnes, j’ai fait référence à GNU/Linux par son nom de loin le plus couramment utilisé – Linux, tout simplement – après la première occurrence. Pour en savoir plus à ce propos, les Wikipédiens ont rassemblé tout un tas de sources pertinentes.

Merci à Evan Hansen et Steven Levy.

Biographie et plus d’informations : http://dangillmor.com/about (Photo par Joi Ito)




Framacalc Reloaded : la force de vos feuilles de calculs se réveille !

Notre tableur en ligne, basé sur le logiciel libre Ethercalc, est déjà largement utilisé… au point d’être parfois victime de son succès ! C’est bien connu : plus un logiciel (ou un service) a d’utilisateurs, plus ils souhaitent, suggèrent et apportent des améliorations et aident ainsi le logiciel à devenir meilleur…

Alors : prêt-e-s pour les améliorations apportées à ce millésime 2016 ? C’est parti !

Une mise à jour aussi grosse qu’une pilule bleue !

La nouvelle mouture d’Ethercalc apporte déjà en elle-même de belles améliorations :

  • framacalc import
    importez vos propres feuilles de calcul

    Une interface graphique plus claire et plus simple (nouvelles icônes, plus que 2 niveaux de gris…)

  • Le format de la date s’adapte en fonction de la langue (de votre navigateur). Pour les francophones, sachez qu’enfin vous pourrez entrer vos dates au format JJ/MM/AAAA (c’est peut-être un détail pour vous, mais pour nous…)
  • Les onglets sont de la partie ! Même si cette fonctionnalité est -encore- expérimentale, cela veut dire concrètement que vos pouvez avoir un classeur de plusieurs feuilles de calculs sur le même Framacalc. Vous avez le droit d’écraser une larmichette de bonheur.
  • Du coup, vous pouvez aussi importer vos feuilles de calculs/classeurs dès la création de votre Framapad (que vos fichiers soient en .csv, en .ods… et allez, on est choux, on accepte même le format .xlsx, parce qu’il faut bien que vous vous en libériez !)
  • Une petite barre « rechercher » est apparue. Avant, pour rechercher une donnée dans votre tableau, il vous fallait utiliser la fonction de recherche de votre navigateur… Mais ça, c’était avant.
  • Les volets (pour l’en-tête des lignes et colonnes) deviennent permanents et visibles pour tous les utilisateurs. Désormais, vous pouvez naviguer dans l’immensité de votre calc et savoir de quoi parle la cellule Z42.

Barres de recherche, onglets, anciennes révisions… Il est pas beau le Framacalc 2016 ?
Barres de recherche, onglets, anciennes révisions… Il est pas beau le Framacalc 2016 ?

Framacalc contre-attaque.

Une des fonctionnalités qui manquaient le plus à Framacalc (quand on le compare à son cousin Framapad), c’est un historique des différentes révisions de votre feuille de calcul. Eh oui : une simple erreur d’un-e de vos collaborateurs ou collaboratrices, et tout votre calc était à reprendre !

C’était compter sans la sagacité de notre nouvel employé Luc (Framasky pour les intimes), qui a dégoté le petit bout de code qui enregistre automatiquement une révision de vos calcs toutes les dix minutes ! Ce petit bout de code nécessitait quelques adaptations pour enregistrer les différentes versions de chaque calc : il ne faisait qu’enregistrer la dernière version à chaque utilisation. Bien entendu, cet apport a été soumis à la communauté d’Ethercalc, afin que cela profite à tou-te-s !

Problème : pour accéder à vos calcs enregistrés, il fallait retenir l’URL : https://framacalc.org/history/nom_du_calc… ce qui est pas très très pratique pour Han Dupuis-Morizeau, qui a déjà d’autres choses à retenir dans sa vie.

Qu’à cela ne tienne, Luc a utilisé la Force du Javascript pour ajouter un onglet « Révisions » à vos Framacalcs. Désormais, l’ensemble de vos révisions est à portée de clic.

Autre problème : s’il existe bien un outil d’utilisation de ces révisions pour les restaurer, celui-ci n’a que peu de chances de fonctionner sur un autre site qu’Ethercalc.org… et la méthode de restauration des calcs était un protocole en 8 points si lourd que Han Dupuis-Morizeau hésitait entre le Xanax et l’abonnement à Microsoft Office 365.

Une chose que Luc-überGeek-Framasky ne pouvait pas laisser faire comme ça…

 

exemple d'une révision . Oui, chez Frama, on n'hésite pas à vous montrer nos données les plus sensibles !
exemple d’une révision .
Oui, chez Frama, on n’hésite pas à vous montrer nos données les plus sensibles !

Ethercalc Revision Tool : le retour du Framacalc

Han Dupuis Morizeau a l'air ravi de tant de simplicité ! (CC-BY Sam Howzit)
Han Dupuis Morizeau a l’air ravi de tant de simplicité !
(CC-BY Sam Howzit)

C’est ainsi que notre Framasky a sorti son clavier laser pour coder ERT (Ethercalc Revision Tool). Un système de révisions simple et efficace conçu pour Framacalc mais que vous pouvez aussi installer sur votre propre instance d’ethercalc (pensez à bien suivre le fichier INSTALL.md car y’a un bout de code à goupiller ^^).

Pour restaurer une révision précédente de votre calc, c’est très simple :

  1. Cliquez sur l’onglet « anciennes révisions »
  2. Choisissez la révision qui vous intéresse (elles sont enregistrées toutes les 10 minutes dès lors que vous avez modifié votre feuille de calcul)
  3. Cliquez dessus si vous voulez un aperçu (parce que quitte à avoir la classe, on va l’avoir jusqu’au bout)
  4. Et cliquez sur l’icône « retour dans le temps » en haut à droite (pas d’inquiétude, une confirmation vous sera demandée).

Oui, c’est tout.

Et re-oui : ça marche avec vos anciens Framacalcs (mais leurs révisions ne sont enregistrées que depuis quelques jours seulement ^^).

C’est pas une happy end ça ?

Ethercalc Revolutions

La morale de cette histoire, c’est que le Libre apporte au Libre. Parce que vous l’utilisez massivement, il nous semble essentiel de tenir Framacalc à jour. En mettant à jour Ethercalc (et donc en profitant du travail de son équipe), nous avons découvert certaines de ses possibilités et ce qu’il manquait à nos utilisations. Alors (même si Framasoft code très peu, encore un grand merci à Luc) nous avons apporté notre petite pierre en réalisant ERT qui peut désormais servir à toute la communauté, que vos alliez sur Framacalc ou sur un autre instance d’Ethercalc qui intègre cet outil.

C’est un cercle vertueux, et ceci est (littéralement) une révolution.

Liens pratiques :




GitHub et les libristes : un danger et un défi !

Lorsqu’une personnalité notoire du Libre comme Carl Chenet s’attaque avec pertinence à la tendance massive du « tous sur GitHub » et égratigne la communauté du Libre pour son immobilisme (et même sa paresse !), Framasoft trouve que c’est une bonne occasion de lui donner un peu plus de voix encore.

S’adressant principalement aux développeurs, il pointe les dangers d’un service centralisateur, privateur, qui uniformise les pratiques en étouffant les alternatives. Ça ne vous rappelle rien ? Oui, les mêmes écueils contre lesquels nous vous mettons en garde dans notre campagne degooglisons ! Ajoutons que nous avons déjà basculé sur GitLab, comme le recommande Carl, dès 2014 et mis à la disposition de tous depuis le mois de mars 2015 notre GitLab qui héberge à ce jour 3017 projets, 2071 utilisateurs inscrits, 242 groupes.

Nous reprenons ici avec son autorisation le récent billet de Carl qui a déjà suscité d’intéressants commentaires et en provoquera probablement d’autres ici même.

 

Le danger GitHub

Un article de Carl Chenet d’abord publié sur son blog

Carl ChenetAlors que le projet CPython (implémentation historique du projet Python) a annoncé son passage chez GitHub (avec quelques restrictions, nous reviendrons là-dessus), il est plus que jamais important de s’interroger sur les risques encourus d’utiliser un logiciel propriétaire dans notre chaîne de création du Logiciel Libre.

Des voix critiques s’élèvent régulièrement contre les risques encourus par l’utilisation de GitHub par les projets du Logiciel Libre. Et pourtant l’engouement autour de la forge collaborative de la startup Californienne à l’octocat continue de grandir.

codercatL’octocat, mascotte de GitHub

Ressentis à tort ou à raison comme simples à utiliser, efficaces à l’utilisation quotidienne, proposant des fonctionnalités pertinentes pour le travail collaboratif en entreprise ou dans le cadre d’un projet de Logiciel Libre, s’interconnectant aujourd’hui à de très nombreux services d’intégration continue, les services offerts par GitHub ont pris une place considérable dans l’ingénierie logicielle ces dernières années.

Quelles sont ces critiques et sont-elles justifiées ? Nous proposons de les exposer dans un premier temps dans la suite de cet article avant de peser le pour ou contre de leur validité.

1. Points critiques

1.1 La centralisation

L’application GitHub appartient et est gérée par une entité unique, à savoir GitHub, inc, société américaine. On comprend donc rapidement qu’une seule société commerciale de droit américain gère l’accessibilité à la majorité des codes sources des applications du Logiciel Libre, ce qui représente un problème pour les groupes utilisant un code source qui devient indisponible, pour une raison politique ou technique.

De plus cette centralisation pose un problème supplémentaire : de par sa taille, ayant atteint une masse critique, elle s’auto-alimente. Les personnes n’utilisant pas GitHub, volontairement ou non, s’isolent de celles qui l’utilisent, repoussées peu à peu dans une minorité silencieuse. Avec l’effet de mode, on n’est pas « dans le coup » quand on n’utilise pas GitHub, phénomène que l’on rencontre également et même devenu typique des réseaux sociaux propriétaires (Facebook, Twitter, Instagram).

1.2 Un logiciel privateur

Lorsque vous interagissez avec GitHub, vous utilisez un logiciel privateur, dont le code source n’est pas accessible et qui ne fonctionne peut-être pas comme vous le pensez. Cela peut apparaître gênant à plusieurs points de vue. Idéologique tout d’abord, mais peut-être et avant tout pratique. Dans le cas de GitHub on y pousse du code que nous contrôlons hors de leur interface. On y communique également des informations personnelles (profil, interactions avec GitHub). Et surtout un outil crucial propriétaire fourni par GitHub qui s’impose aux projets qui décident de passer chez la société américaine : le gestionnaire de suivi de bugs.

1.3 L’uniformisation

Travailler via l’interface GitHub est considéré par beaucoup comme simple et intuitif. De très nombreuses sociétés utilisent maintenant GitHub comme dépôt de sources et il est courant qu’un développeur quittant une société retrouve le cadre de travail des outils GitHub en travaillant pour une autre société. Cette fréquence de l’utilisation de GitHub dans l’activité de développeur du Libre aujourd’hui participe à l’uniformisation du cadre de travail dudit développeur.

clone_army

L’uniforme évoque l’armée, ici l’armée des clones

2. Validité des points critiques

2.1 Les critiques de la centralisation

Comme dit précédemment, GitHub est aujourd’hui la plus grande concentration de code source du Logiciel Libre. Cela fait de lui une cible privilégiée.  Des attaques massives par déni de service ont eu lieu en mars et août 2015. De même, une panne le 15 décembre 2015 a entraîné l’indisponibilité de 5% des dépôts. Idem le 15 novembre. Et il s’agit des incidents récents déclarés par les équipes de GitHub elles-mêmes. On peut imaginer un taux d’indisponibilité moyen des services bien supérieur.

 

githubdown

L’excuse n°1 des programmeurs pour se lâcher sans scrupules : « GitHub est en panne »

— Hé, au boulot les gars ! — Github est en panne !

— Ah bon, continuez alors.

2.2 Les critiques relatives à l’usage d’un logiciel privateur

Cette critique, avant tout idéologique, se heurte à la conception même que chacun des membres de la communauté se fait du Logiciel Libre, et en particulier d’un critère : contaminant ou non, qu’on résume en général par GPL versus MIT/BSD.

 

bsdvsgpl

Framanote : MIT/BSD sont des licences permissives, laissant toutes les libertés, même celle de reprendre le code dans un logiciel privateur/propriétaire. Cela correspond à la CC-BY ou à la CC-0 dans les licences Creative Commons.

GPL est une licence copyleft (ou contaminante). Le principe est que tout développement utilisant un code sous licence contaminante doit rester Libre, donc être diffusé sous la même licence. Cela correspond à la mention SA dans les licences Creative Commons.


Les défenseurs du Logiciel Libre contaminant vont être gênés d’utiliser un logiciel propriétaire car ce dernier ne devrait pas exister. Il doit être assimilé, pour citer Star Trek,  car il est une boîte noire communicante, qui met en danger la vie privée, détourne nos usages à des fins commerciales, gêne ou contraint la liberté de jouir entièrement de ce qu’on a acquis, etc.

Les tenants d’une totale liberté sont moins complexés dans leur utilisation des logiciels privateurs puisqu’ils acceptent l’existence desdits logiciels privateurs au nom d’une liberté sans restriction. Ils acceptent même que le code qu’ils développent aboutissent dans ces logiciels, ce qui arrive bien plus souvent qu’on ne le croit, voir à ce sujet la liste à couper le souffle des produits commerciaux reposant sur FreeBSD. On peut donc voir dans cette aile de la communauté du Logiciel Libre une totale sérénité à utiliser GitHub. Et ce qui est cohérent vis-à-vis de l’idéologie soutenue. Si vous êtes déjà allé au Fosdem, un coup d’œil dans l’amphithéâtre Janson permet de se rendre compte de la présence massive de portables Apple tournant sous MacOSX.

freebsd
FreeBSD, principal projet des BSD sous licence MIT

Mais au-delà de cet aspect idéologique pur et pour recentrer sur l’infrastructure de GitHub elle-même, l’utilisation du gestionnaire de suivi de bugs de GitHub pose un problème incontournable. Les rapports de bugs sont la mémoire des projets du Logiciel Libre. Il constitue le point d’entrée des nouveaux contributeurs, des demandes de fonctionnalités, des rapports de bugs et donc la mémoire, l’histoire du projet qui ne peut se limiter au code seul. Il est courant de tomber sur des rapports de bugs lorsque vous copiez/collez votre message d’erreur dans un moteur de recherche. Mémoire précieuse non seulement pour le projet lui-même, mais aussi pour ses utilisateurs actuels et à venir.

GitHub propose d’extraire les rapports de bugs via son API, certes, mais combien de projets anticiperont une éventuelle défaillance de GitHub  ou un retournement de situation arrêtant brusquement le service ? Très peu à mon avis. Et comment migrer vers un nouveau système de suivi de bugs les données fournies par GitHub ?

L’exemple de l’utilitaire de gestion de listes de choses à faire (TODO list) Astrid, racheté par Yahoo! il y a quelques années reste un très bon exemple de service ayant grandi rapidement, largement utilisé et qui a fermé du jour au lendemain, proposant pendant quelques semaines seulement d’extraire ses données. Et il s’agissait là d’un simple gestionnaire de tâches à faire. Le même problème chez GitHub serait dramatiquement plus difficile à gérer pour de très nombreux projets, si on leur laisse la possibilité de le gérer. Certes le code reste disponible et pourra continuer de vivre ailleurs, mais la mémoire du projet sera perdue, alors qu’un projet comme Debian approche aujourd’hui les 800 000 rapports de bugs. Une vraie mine d’or d’informations sur les problèmes rencontrés, les demandes de fonctionnalités et le suivi de ces demandes. Les développeurs du projet CPython passant chez GitHub ont anticipé ce problème et ne vont pas utiliser le système de suivi de bugs de GitHub.

 

proposed-debian-logoDebian, l’un des principaux projets du Logiciel Libre

avec autour de 1000 contributeurs officiels

2.3 L’uniformisation

La communauté du Logiciel Libre oscille sans cesse entre un besoin de normes afin de réduire le travail nécessaire pour l’interopérabilité et l’attrait de la nouveauté, caractérisée par l’intrinsèque besoin de différence vis-à-vis de l’existant.

GitHub a popularisé l’utilisation de Git, magnifique outil qui aujourd’hui touche des métiers bien différents des programmeurs auxquels il était initialement lié. Peu à peu, tel un rouleau compresseur, Git a pris une place si centrale que considérer l’usage d’un autre gestionnaire de sources est quasiment impossible aujourd’hui, particulièrement en entreprise, malgré l’existence de belles alternatives qui n’ont malheureusement pas le vent en poupe, comme Mercurial.

git-logo

Un projet de Logiciel Libre qui naît aujourd’hui, c’est un dépôt Git sur GitHub avec un README.md pour sommairement le décrire. Les autres voies sont totalement ostracisées. Et quelle est la punition pour celui qui désobéit ? Peu ou pas de contributeurs potentiels. Il semble très difficile de pousser aujourd’hui le contributeur potentiel à se lancer dans l’apprentissage d’un nouveau gestionnaire de sources ET une nouvelle forge pour chaque projet auquel on veut contribuer. Un effort que fournissait pourtant tout un chacun il y a quelques années.

Et c’est bien dommage car GitHub, en proposant une expérience unique et originale à ses utilisateurs, taille à grands coups de machette dans les champs des possibles. Alors oui, sûrement que Git est aujourd’hui le meilleur des système de gestion de versions. Mais ça n’est pas grâce à cette domination sans partage qu’un autre pourra émerger. Et cela permet à GitHub d’initier à Git les nouveaux arrivants dans le développement  à un ensemble de fonctionnalités très restreint, sans commune mesure avec la puissance de l’outil Git lui-même.

Centralisation, uniformisation, logiciels privateurs et bientôt… fainéantise ?

Le combat contre la centralisation est une part importante de l’idéologie du Logiciel Libre car elle accroît le pouvoir de ceux qui sont chargés de cette centralisation et qui la contrôlent sur ceux qui la subissent. L’aversion à l’uniformisation née du combat contre les grandes firmes du logiciel souhaitant imposer leur vision fermée et commerciale du monde du logiciel a longtemps nourri la recherche réelle d’innovation et le développement d’alternatives brillantes. Comme nous l’avons décrit, une partie de la communauté du Libre s’est construit en opposition aux logiciels privateurs, les considérant comme dangereux. L’autre partie, sans vouloir leur disparition, a quand même choisi un modèle de développement à l’opposé de celui des logiciels privateurs, en tout cas à l’époque car les deux mondes sont devenus de plus en plus poreux au cours des dernières années.

L’effet GitHub est donc délétère au point de vue des effets qu’il entraîne : la centralisation,  l’uniformisation, l’utilisation de logiciels privateurs comme leur système de gestion de version, au minimum. Mais la récente affaire de la lettre « Cher GitHub… » met en avant un dernier effet, totalement inattendu de mon point de vue : la fainéantise. Pour les personnes passées à côté de cette affaire, il s’agit d’une lettre de réclamations d’un nombre très important de représentants de différents projets du Logiciel Libre qui réclament à l’équipe de GitHub d’entendre leurs doléances, apparemment ignorées depuis des années, et d’implémenter de nouvelles fonctionnalités demandées.

Mais depuis quand des projets du Logiciel Libre qui se heurtent depuis des années à un mur tentent-ils de faire pleurer le mur et n’implémentent pas la solution qui leur manquent ? Lorsque Torvald a subi l’affaire Bitkeeper et que l’équipe de développement du noyau Linux n’a plus eu l’autorisation d’utiliser leur gestionnaire de versions, Linus a mis au point Git. Doit-on rappeler que l’impossibilité d’utiliser un outil ou le manque de fonctionnalités d’un programme est le moteur principal de la recherche d’alternatives et donc du Logiciel Libre ? Tous les membres de la communauté du Logiciel Libre capables de programmer devraient avoir ce réflexe. Vous n’aimez pas ce qu’offre GitHub ? Optez pour Gitlab. Vous n’aimez pas Gitlab ? Améliorez-le ou recodez-le.

gitlab

Logo de Gitlab, une alternative possible à GitHub

en choisissant la version Communauté

Que l’on soit bien d’accord, je ne dis pas que tout programmeur du Libre qui fait face à un mur doit coder une alternative. En restant réaliste, nous avons tous nos priorités et certains de nous aiment dormir la nuit (moi le premier). Mais lorsqu’on voit 1340 signataires de cette lettre à GitHub et parmi lesquels des représentants de très grands projets du Logiciel Libre, il me paraît évident que les volontés et l’énergie pour coder une alternative existe. Peut-être d’ailleurs apparaîtra-t-elle suite à cette lettre, ce serait le meilleur dénouement possible à cette affaire.

GitPourTous

Finalement, l’utilisation de GitHub suit cette tendance de massification de l’utilisation d’Internet. Comme aujourd’hui les utilisateurs d’Internet sont aspirés dans des réseaux sociaux massivement centralisés comme Facebook et Twitter, le monde des développeurs suit logiquement cette tendance avec GitHub. Même si une frange importante des développeurs a été sensibilisée aux dangers de ce type d’organisation privée et centralisée, la communauté entière a été absorbée dans un mouvement de centralisation et d’uniformisation. Le service offert est utile, gratuit ou à un coût correct selon les fonctionnalités désirées, confortable à utiliser et fonctionne la plupart du temps. Pourquoi chercherions-nous plus loin ? Peut-être parce que d’autres en profitent et profitent de nous pendant que nous sommes distraits et installés dans notre confort ? La communauté du Logiciel Libre semble pour le moment bien assoupie.

cat-sleeping-fireplace
Le « lion » du Libre assoupi devant la cheminée (allégorie)

Liens :




Ils liquident la démocratie, si nous la rendions liquide ?

Avec un pourcentage très important d’abstentions, les dernières élections ont fait apparaître une fois encore l’insatisfaction éprouvée par tous ceux qui estiment que le mode de scrutin ne leur convient pas : pas de prise en compte des votes blancs dans les suffrages exprimés, candidats choisis et présentés par les partis et souvent parfaitement inconnus des électeurs, offre électorale réduite au choix du « moins pire » par l’élimination arithmétique des « petites listes » au deuxième tour, etc. Plus largement, et sans entrer dans les débats sur la tumultueuse situation actuelle, de gros doutes sur la représentativité des politiques une fois élus se sont durablement installés, au point que certains en viennent à souhaiter tourner la page de la démocratie représentative (notre framasoftien Gee est lui-même étonné d’avoir touché juste) et expliquent avec de solides arguments qu’ils n’ont pas voté et ne le feront pas.

Bien sûr des propositions existent, plus ou moins crédibles (à chacun d’en juger) : certains veulent passer à la VIe République, d’autres veulent un processus transparent et démocratique pour déterminer les candidats aux prochaines élections présidentielles, d’autres encore militent pour la prise en compte du vote blanc

L’article que Framalang a traduit pour vous détaille l’intérêt de la démocratie liquide, processus peu connu mais utilisé par plusieurs Partis Pirates avec l’outil LiquidFeedback (notez qu’il nécessite toutefois un tutoriel assez dense). Dans la même catégorie, il existe Loomio qui propose d’optimiser les prises de décision collectives et qui pourrait être proposé au cours de l’année prochaine dans le cadre de notre campagne Degooglisons.

Il se peut que vous trouviez la démocratie liquide une possibilité intéressante et à mettre en pratique, ou au contraire irréaliste, voire dangereuse (proposer le vote électronique même chiffré peut susciter des inquiétudes), nous souhaitons seulement en publiant cette traduction vous inviter à nous faire part librement de vos réactions.

 

La démocratie liquide : une véritable démocratie pour le 21e siècle

par Dominik Schiener

Article original publié sur Medium : Liquid Democracy : True Democracy for the 21st Century

Traduction Framalang : valvin, KoS, r0u, roptat, Myrsa, audionuma, Éric, McGregor, goofy, sebastien, Vincent, simon, Obny, mseyne

La démocratie liquide, aussi appelée démocratie par délégation, est un puissant modèle de scrutin pour la prise de décision collective au sein de grandes communautés. La démocratie liquide combine les avantages de la démocratie directe et ceux de la démocratie représentative. Elle crée un type de scrutin réellement démocratique, qui confère aux électeurs le pouvoir de voter directement sur un sujet ou de déléguer leur droit de vote à un tiers de confiance.

Au travers de la délégation, les personnes qui disposent d’un savoir dans un domaine spécifique sont capables d’influencer davantage le résultat des décisions, ce qui de fait mène à une meilleure gouvernance de l’État. Grâce à cela, la démocratie liquide se transforme naturellement en une méritocratie, dans laquelle les décisions sont principalement prises par ceux qui ont le type de connaissances et d’expériences requis pour prendre des décisions éclairées sur les sujets concernés.

Globalement, la démocratie liquide dispose d’un gros potentiel pour constituer le socle de la prise de décision, non seulement dans des communautés virtuelles, mais aussi dans des communautés locales et des gouvernements tout entiers. L’objectif de cet article de blog est de donner au lecteur un aperçu de ce qu’est la démocratie liquide et des avantages qu’elle offre à ses participants. D’autres articles sur le même sujet suivront.

Qu’est qui ne va pas dans la démocratie aujourd’hui ?

Même s’il existe de nombreuses formes de démocratie, les deux seules actuellement en place sont la démocratie directe et la démocratie représentative (et un hybride des deux). Décrivons-les :

  • La démocratie directe : les électeurs sont directement impliqués dans le processus de prise de décision de l’État. Ils expriment continuellement leurs opinions en votant sur des sujets. Les démocraties directes offrent le contrôle total à leurs citoyens et une égalité dans la responsabilité. Malheureusement, les démocraties directes ne fonctionnent pas à une grande échelle en raison principalement la loi du moindre effort et du renoncement au droit de vote, à cause du nombre sans cesse croissant de sujets réclamant l’attention des électeurs à mesure que la communauté s’agrandit. Il devient tout simplement impossible pour chaque électeur de se tenir informé sur tous les sujets, que ce soit par manque de temps, d’envie ou d’expertise. Cela conduit à une faible participation électorale et à une insatisfaction des électeurs au sein de la communauté. Les démocraties directes dans leur forme pure ne sont tout simplement pas applicables dans les communautés de grande taille.
  • La démocratie représentative : la forme de démocratie la plus répandue implique le fait de confier son droit de vote à des représentants qui agissent au nom des citoyens pour prendre des décisions. Les représentants sont généralement (du moins, on l’espère) des experts dans le domaine dont ils sont disposés à s’occuper et ils représentent les intérêts de la communauté au sein d’un organe représentatif (par exemple, le parlement). Les démocraties représentatives fonctionnent à grande échelle mais elles échouent à servir les intérêts de leurs citoyens. Les problèmes des démocraties représentatives sont nombreux mais pour résumer, en voici trois des principaux :
    • Tout d’abord, les citoyens ne peuvent choisir leurs représentants que parmi un nombre restreint de candidats qui bien souvent ne partagent pas leurs idéologies ni leurs intérêts. La plupart du temps, les électeurs sont forcés de renoncer à leur préférence personnelle et doivent voter pour le candidat ayant le plus de chances d’être élu. Cela exclut en particulier les minorités du débat politique, qui perdent ainsi la possibilité de voir leurs opinions et leurs points de vue représentés au sein du gouvernement. De plus, il s’agit d’une des raisons principales expliquant pourquoi les jeunes aujourd’hui se désintéressent tant de la politique. [2] Si vous êtes jeune et que personne ne partage vos opinions, la seule solution est de protester et de ne pas voter du tout. Le fait que seuls 20 % des jeunes Américains aient voté aux élections de 2014 en est un signe fort.
    • Ensuite, les représentants n’ont pas (ou peu) à rendre de comptes pour leurs actions pendant leur mandat. Les promesses faites pendant la période électorale n’ont pas à être appliquées et ne sont majoritairement rien de plus qu’un appât pour attirer des électeurs. Cela mène à des « cycles politiques électoraux », où les représentants élus essaient de convaincre les électeurs qu’ils sont compétents avant les prochaines élections, soit en faisant de nouvelles propositions qui sont appréciées par la population (mais qui ne seront probablement pas mises en place), soit en distribuant des Wahlgeschenke (cadeaux pré-électoraux) coûteux.
    • Enfin, les démocraties représentatives peuvent mener à la corruption en raison de la concentration des pouvoirs. Considérer que les États-Unis sont vus comme une oligarchie suffit à démontrer que les démocraties représentatives constituent un terreau fertile à la corruption et aux conflits d’intérêts. En l’absence de sens des responsabilités et de comptes à rendre aux électeurs, agir pour l’intérêt du mieux-disant est plus facile que d’agir pour le bien de la population.

En dehors de ces failles évidentes dans les démocraties directes et représentatives, une autre, moins évidente celle-là, se situe dans les procédés de vote actuellement en place, qui sont complètement dépassés et ne sont plus en phase avec les technologies disponibles. Au lieu de mettre en place, sécuriser et faciliter le vote en ligne, les électeurs doivent se déplacer dans des bureaux de vote éloignés de leur domicile juste pour remplir un bulletin en papier [1]. Cela leur demande un effort supplémentaire et peut les inciter à renoncer à aller voter.

Ironiquement, c’est exactement ce que la démocratie essaie d’empêcher. L’opinion de chacun compte et devrait être incluse dans le processus de prise de décision collectif. Toutefois, les obstacles au processus de vote qui sont toujours présents aujourd’hui empêchent cela de se produire.

Qu’est-ce que la démocratie liquide ?

La démocratie liquide est une nouvelle forme de prise de décision collective qui offre aux électeurs un contrôle décisionnel complet. Ils peuvent soit voter directement sur des sujets, soit déléguer leur droit de vote à des délégués (c’est-à-dire des représentants) qui votent à leur place. La délégation peut être spécifique à un domaine, ce qui signifie que les électeurs peuvent déléguer leurs votes à différents experts de différents domaines.

Voilà qui change de la démocratie directe, où les participants doivent voter en personne sur tous les sujets, et de la démocratie représentative où les participants votent pour des représentants une seule fois par cycle électoral, pour ne plus avoir à se soucier de devoir voter de nouveau.

Le diagramme ci-dessous montre une comparaison entre les trois systèmes de vote.

Liquid_democratie_diagramme1

Dans le modèle de la démocratie directe, tous les électeurs votent directement sur les questions. Dans le modèle de la démocratie représentative, ils élisent d’abord des représentants qui votent ensuite en leur nom. Le point intéressant mis en évidence par le diagramme est bien évidemment le modèle de la démocratie liquide. Là, les électeurs peuvent voter directement sur certaines questions (comme les deux électeurs indépendants sur les bords droit et gauche), ou peuvent déléguer leur vote à des représentants qui ont plus de connaissances spécialisées sur la question, ou simplement plus de temps pour se tenir informés.

La délégation est un signe de confiance. Un électeur fait confiance à un délégué pour le représenter dans certaines décisions. Si cette confiance est rompue (par des divergences idéologiques croissantes, ou par la corruption du délégué), il peut simplement révoquer la délégation et soit voter directement, soit déléguer sa voix à quelqu’un d’autre. Comme nous le verrons plus tard, cette notion de confiance provisoire est importante pour créer un sens de la responsabilité chez les délégués et les inciter à rendre des comptes.

Une propriété importante de la démocratie liquide est la transitivité. La délégation peut ne pas avoir lieu en un seul saut, elle est parfaitement transitive. Cela signifie que les délégués peuvent déléguer à d’autres délégués pour qu’ils votent à leur place et à celle des électeurs précédents (qui avaient délégué leur vote) dans la chaîne. Cette transitivité assure que des experts peuvent déléguer la confiance qu’ils ont accumulée à d’autres délégués sur certaines questions pour lesquelles ils n’ont pas suffisamment de connaissances et de recul.

Il manque dans le diagramme précédent la délégation spécifique à un domaine. Un électeur peut ne pas déléguer sa voix à un seul délégué, mais peut la déléguer à plusieurs autres délégués qui recevront ce droit en fonction du domaine de la question. Avec un tel système, il y a de fortes chances pour que des experts parviennent à influencer positivement le résultat du scrutin et conduisent à un résultat globalement meilleur.

La catégorisation des sujets est laissée à la décision de la communauté toute entière, mais une catégorisation très simple à l’intérieur d’un gouvernement pourrait être la politique fiscale, la politique monétaire, la politique environnementale…

Pour vous donner un autre exemple, prenons un parti politique qui utiliserait la démocratie liquide pour prendre ses décisions en interne. Les catégories qui auraient du sens pour une telle organisation seraient : Finances, Marketing & diffusion, Programme politique et Décisions administratives. Les décisions à prendre seraient réparties entre ces quatre catégories. Les membres du parti politique pourraient soit voter directement pour ces décisions, soit déléguer leur droit de vote à des personnes possédant un savoir plus spécialisé nécessaire pour se forger une opinion éclairée.

Liquid_democratie_diagramme2

Permettez-moi d’expliquer le diagramme en détail, il peut sembler un peu confus à première vue. Concentrons-nous sur celui qui concerne le Gouvernement, le diagramme concernant les partis politiques est très similaire. En tout, il y a 6 électeurs, dont 3 qui ont pris la responsabilité d’être délégués. Comme mentionné précédemment, il existe trois types de sujets (et donc 3 types de domaine d’expertise) : Politiques fiscales, Politiques monétaires et Politiques environnementales.

Comme vous pouvez le constater, les 6 électeurs ont pratiquement tous délégué leur vote d’une façon ou d’une autre, à l’exception de la déléguée en haut, qui a voté de façon indépendante sur tous les sujets (elle doit être une véritable experte). L’électeur B a délégué chaque vote, soit il est trop occupé ou pas intéressé, soit il ne possède pas les compétences requises sur les sujets concernés.

Globalement, la démocratie liquide est à peine plus complexe que les démocraties directe ou représentative. Mais les avantages qu’elle offre l’emportent largement sur cette difficulté initiale d’apprentissage. Voyons en détail quels sont ces avantages.

Pourquoi choisir la démocratie liquide ?

Maintenant que nous cernons mieux les problèmes soulevés par la démocratie de nos jours, et que nous avons un bon aperçu de la façon dont fonctionne la démocratie liquide, nous pouvons nous pencher davantage sur les raisons de préférer ce choix. Avant tout, nous devons fournir des arguments solides expliquant pourquoi la démocratie liquide est une bien meilleure solution que le statu quo. J’espère que nous y parviendrons en dressant une liste des caractéristiques et avantages principaux de la démocratie liquide par rapport aux démocraties directe et représentative.

La démocratie liquide est véritablement démocratique. Les électeurs ont le choix soit de voter en personne, soit de déléguer leur vote à quelqu’un d’autre. Cela tranche nettement avec les démocraties en place de nos jours, dans lesquelles les citoyens ne peuvent que voter systématiquement en leur nom propre (démocratie directe) ou pour un représentant à intervalles de quelques années (démocratie représentative). Dans ces deux modèles, les électeurs se retrouvent soit dépassés par le type de travail requis pour participer, soit déçus et pas suffisamment impliqués dans les prises de décision du gouvernement. La démocratie liquide leur fournit la liberté de décider de leur niveau d’engagement, tout en leur permettant de le moduler à tout moment. Cela signifie que la prise de décision d’un pays est confiée directement à la population tout entière.

La démocratie liquide présente peu d’obstacles à la participation. L’exigence minimale à satisfaire pour devenir délégué est d’obtenir la confiance d’une autre personne. Pratiquement toutes les personnes qui souhaitent endosser cette responsabilité peuvent avoir le statut de délégué. Aucun parti politique n’est nécessaire pour rallier des sympathisants à votre cause. À la place de campagnes électorales scandaleuses dans lesquelles les électeurs sont délibérément trompés, la compétence et les connaissances d’une personne sur un sujet suffisent à rallier des délégués. En limitant autant que possible les obstacles à la participation, le processus global de prise de décision, qui implique un échange d’idées, des commentaires et des débats, sera plus animé et il en jaillira davantage d’idées et de points de vue. Grâce à cela, le résultat du scrutin aura de plus fortes chances de satisfaire une grande partie de la population et d’entraîner une meilleure gouvernance globale du pays.

La démocratie liquide, c’est la coopération, pas la compétition. De nos jours, dans les démocraties représentatives, la compétition durant la course aux élections est dominée par des dépenses de campagne élevées et inutiles, des tentatives pour démasquer des adversaires politiques et des mensonges délibérés pour tromper les électeurs. Souvent, de nombreux candidats perdent plus de temps à organiser des campagnes électorales pour remporter les élections qu’à se concentrer réellement sur leur supposé programme politique et sur les systèmes à mettre en place pour diriger un pays. Si s’assurer le vote des électeurs est plus important que la propre gouvernance du pays, c’est le signe que le système est miné de l’intérieur. Tout remporter et être élu, ou tout perdre. Voilà la devise de la démocratie de nos jours. Dans la démocratie liquide, cette compétition pour être élu représentant est écartée. À la place, les délégués rivalisent uniquement pour gagner la confiance des électeurs, ce qui ne peut être obtenu qu’en fournissant des efforts continuels et en apportant la preuve de ses compétences. Il est impossible de tromper les électeurs (tout du moins pas à long terme) et le mérite, la volonté et la capacité à améliorer la situation du pays font toute la différence.

La démocratie liquide crée de la responsabilité. La délégation est un indice de confiance. Si cette confiance est trahie, un électeur peut immédiatement désigner un autre délégué ou voter pour lui-même. Cette confiance provisoire entraîne un sens des responsabilités et du devoir de rendre des comptes chez les délégués, car ils peuvent perdre leur droit de vote à tout moment. Grâce à cela, ils sont plus enclins à agir de façon honnête et à voter dans l’intérêt des citoyens plutôt que dans le leur.

La démocratie liquide, c’est la représentation directe des minorités. Grâce à la quasi-absence d’obstacles à la participation, il est plus facile pour les minorités d’être représentées au sein du gouvernement. Cela signifie qu’aucune loi supplémentaire nécessitant un minimum de représentants issus de certaines minorités ethniques n’est exigée. En effet, la démocratie liquide constitue une représentation directe des différentes couches de la société et permet aux minorités et aux groupes ethniques, quelle que soit leur taille, de participer au processus de prise de décision et à la gouvernance du pays.

La démocratie liquide mène à de meilleures décisions. En évoluant en un réseau d’échanges qui prennent des décisions éclairées dans des domaines spécifiques, la démocratie liquide mène à de meilleures décisions globales. La démocratie liquide finit par évoluer en une méritocratie où les électeurs les plus talentueux, expérimentés et les mieux informés prennent les décisions dans leur domaine d’expertise.

La démocratie liquide est évolutive. De nos jours, les gens disposent de trop peu de temps pour se tenir au courant en permanence de la manière dont l’État est gouverné. Les décisions qu’il est nécessaire de prendre sont en nombre croissant, tandis que le temps est si précieux que beaucoup ne veulent simplement plus le passer à prendre des décisions de gouvernance. De plus, nous sommes dans une société de la spécialisation, et peu de gens sont réellement vraiment bien informés dans différents domaines. Du coup, au travers de la délégation, la prise de décision est placée entre les mains d’experts bien informés, dont le temps et les connaissances peuvent être dédiés à la meilleure gouvernance globale de l’État.

L’état actuel de la démocratie liquide

La raison principale pour laquelle la démocratie liquide n’a pas été mise en pratique durant la dernière décennie est principalement liée aux obstacles à sa mise en place. Les démocraties liquides, comme les démocraties directes, nécessitent une infrastructure technique de fond qui permet aux participants de constamment pouvoir voter directement ou par délégation. C’est uniquement par le biais d’Internet et avec les avancées de la cryptographie que cela a été rendu possible durant les dernières décennies.

Au-delà des obstacles technologiques, un obstacle de plus grande ampleur aujourd’hui relève de l’éducation. Le sondage Avez-vous entendu parler de la démocratie liquide ? le montre bien : seule une petite frange de la population a au mieux entendu parler de la démocratie liquide. Par voie de conséquence, afin de réussir à implanter la démocratie liquide dans des communautés de grande envergure, des efforts bien plus importants sont nécessaires pour éduquer les citoyens sur les avantages et les possibilités que peut offrir la démocratie liquide. La seule réelle réponse à cela est la création de cas concrets intéressants qui montreraient à la population externe ou interne à la communauté ce que la démocratie liquide signifie et apporte concrètement.

Un gros effort est déjà mené par les partis pirates en Europe, qui utilisent des logiciels du genre Liquidfeedback pour certaines décisions et même au cours de certaines élections. En outre, Google a récemment publié des résultats d’expérimentations internes de démocratie liquide. Nous verrons beaucoup d’autres développements dans ce domaine, et je pense que la démocratie liquide va bien progresser, avec de nouvelles initiatives qui se mettent en place. Je travaillerai personnellement sur une implémentation de la démocratie liquide sur Ethereum, et collaborerai aussi à quelques autres solutions de vote pour créer de nouveaux cas représentatifs.

Conclusion

La démocratie liquide est le modèle démocratique qui correspond le mieux à notre société actuelle. La technologie est prête, le seul levier qui manque est l’effort dans l’implémentation concrète, tandis que la recherche dans ce domaine relève plus du détail. Plus important encore est le besoin de déterminer quels modèles sont applicables pour la gouvernance (exécutive ou administrative) concrète d’un pays.

Je suis confiant dans le fait que dans les années qui viennent, beaucoup de questions que je me pose, comme tant d’autres, trouveront leur réponse. Qui sait, peut-être verrons-nous une petite ville, ou même juste un village, adopter la démocratie liquide dans une ou deux décennies. C’est tout à fait possible.

Sources

[1] http://homepage.cs.uiowa.edu/~jones/voting/pictures/

[2] http://www.civicyouth.org/2014-youth-turnout-and-youth-registration-rates-lowest-ever-recorded-changes-essential-in-2016/

demoliquideGeektionerd




Du neuf avec du vieux

Nous avons rencontré les fondateurs de M2 en préparant Alternatiba. Ils sont des ovnis dans le monde libriste parce qu’ils ont créé une entreprise et pas une association. Ils croient dur comme fer (à souder ?) à leur modèle économique et peuvent en parler des heures avec un enthousiasme inoxydable. C’est Maxime qui nous répond mais les deux autres sont aussi survoltés.

 

Bonjour, Maxime ! Alors, toujours aussi motivés ?

Alexandre, de McarréBonjour ! Oui, nous sommes particulièrement motivés, je dirais même exaltés. Nous sommes trois jeunes, dynamiques et complémentaires, prêts à conquérir le monde ! … du moins à le responsabiliser un peu. Nous en avions juste marre de nous faire (toujours à souder) avoir en achetant à répétition du matériel numérique et de plus en plus fréquemment. C’est dans cette optique que nous avons fondé M², une start-up qui lutte contre l’obsolescence programmée des ordinateurs, tablettes et smartphones. Pour expliquer un peu : à chaque composant électronique est associée, lors de sa fabrication, une probabilité de dysfonctionnement par son constructeur. M² c’est donc un ensemble de services pour arriver à se rapprocher d’une informatique responsable, c’est-à-dire fiable, durable et proche de son utilisateur. En ce sens, nous proposons le Fastech, comme le Fastfood mais pour la technologie et avec la qualité en plus… en fait, ça n’a rien à voir, haha. Le Fastech est une cure de jouvence de l’ordinateur, aussi vieux soit-il, au départ logicielle et dans un deuxième temps, si cela s’impose, matérielle. Après le Fastech, l’ordinateur est comme neuf, voire meilleur (et ça c’est fort) : beaucoup plus rapide (Mr Bolt), nettoyé (Monsieur Propre), sécurisé (Mr Robot) et économe en énergie, pour durer plus longtemps et être plus fiable, tout en tenant compte des préférences de configuration de l’utilisateur.

Vous dites que nos appareils électroniques pourraient vivre bien plus longtemps si on s’en occupait un peu mieux ?

Absolument ! Tout est conçu pour mourir prématurément et je ne parle pas uniquement du matériel. L’informatique est une langue compliquée permettant à la grande distribution de vendre encore plus, puisque nous n’y comprenons rien. Finalement, nous n’avons pas toujours conscience des performances réelles de notre machine, qui suffisent à nos besoins quotidiens dans une grande majorité des cas. Chez M², nous aimons prendre notre temps pour expliquer comment appréhender son ordinateur, sa tablette ou encore son téléphone afin de traduire toute cette technicité en gestes du quotidien. Pour vous donner un exemple, pour un ordinateur, qu’il soit sous Mac, Windows ou Linux (youpi), sa durée de vie peut dépasser 8 ans.

Et ça, vous savez le faire ?

Nous sommes tous les trois parfaitement complémentaires. Nous avons bien sûr nos inclinations premières : le code et le développement pour Alexandre, le gaming et l’ergonomie logicielle pour Thomas et la sécurité et le hardware pour moi-même. Nous avons la chance d’être suffisamment vieux pour savoir qu’il y avait autre chose avant l’hégémonie d’Apple et Ubuntu 15, et cette question de durée du matériel s’est très vite posée dans un monde de plus en plus caréné. La confrontation de nos compétences a permis de créer M² et concevoir un système complet s’adaptant à tous les environnements exploitant nos dix années d’expertise.

D’où vous vient cette expérience ? Vous étés des pros de ces trucs-là ? Vous êtes tout jeunes !

Thomas, de McarréLa jeunesse suscite toujours une certaine jalousie, hé hé. Nous sommes de grands passionnés d’informatique depuis le berceau (Windows 3.0 puis 95). Nous avons bidouillé, assemblé, testé, brûlé et soudé (littéralement) nos premiers PC. Nous avons pratiqué toute cette technologie en milieu professionnel (surtout moi, je suis le plus vieux) et j’avais même déjà testé ce concept en auto-entrepreneur pendant quelques années.

 

Combien ça coûte, pour avoir une bécane flambant neuve ?
Nous avons deux offres distinctes :

La première offre est le Fastech à partir de 30€ pour Linux, 40€ pour Mac et 50€ pour Windows (proportionnel au temps passé sur la machine).

Incrémenter de 30€ selon le type de problématique, ajouter si besoin le prix des composants.
A 70%, la première formule suffit et le plus souvent nous le faisons à distance.

La deuxième offre est un système d’abonnement. 15€ par mois sans engagement ni frais de résiliation.

L’abonnement est un suivi personnalisé et complet de quatre appareils électroniques : ordinateur fixe et portable, smartphone et tablette.
Pour cela, nous avons créé une plate-forme, l’application M², à partir de laquelle il est possible de nous joindre 24h/24, 7j/7, pour une question concernant l’utilisation de son ordinateur, un achat informatique à effectuer ; ou la résolution d’un problème, à distance ou en personne si nécessaire. L’abonnement comprend également un ensemble de mises à jour et de vérifications tous les mois et un checkup complet tous les trois mois, une assistance téléphonique haute disponibilité en cas d’urgence, et un accès aux tarifs préférentiels d’M² pour des cours d’utilisation des plate-formes électroniques avec nos Mentors parmi la communauté du M, et des produits informatiques sélectionnés pour leur qualité remarquable.

 

Pourquoi vous avez un système d’abonnement ? Il faut recommencer tous les quatre matins ? Pourquoi c’est pas efficace une fois pour toutes ?

Maxime, de McarréNous procédons à un système d’abonnement car nous savons pertinemment que l’informatique n’est pas une science exacte. Son fonctionnement est affaire de probabilités, dont les variables sont en grande partie liées à l’utilisation qui en est faite : chaque cas est particulier et nécessite son lot d’attention propre au quotidien. C’est pour cela que suite au premier Fastech réalisé dans tous les cas, nous avons établi toute une gamme de services associés aux appareils électroniques de nos membres, pour résoudre tous les problèmes qu’ils pourraient rencontrer, dans toutes les situations dans lesquelles leur ordinateur évolue. Ces services sont exigeants en termes de compétences et de temps, et c’est pour en assurer la cohérence que nous avons souhaité les rassembler sous la forme d’un abonnement, qui intègre nos membres à la communauté du M. Les nouvelles technologies ne cessent d’évoluer, de se transformer, il en est de même pour nos appareils électroniques. Bien souvent, la couche logicielle est conçue de telle manière que cela nécessite un suivi quasi en temps réel de sa machine. C’est pour cette raison d’ailleurs que cela ne pourra jamais être efficace une fois pour toutes. Nos besoins aussi changent avec le temps. Alors non, il ne faut pas recommencer tous les jours, nous avons réussi à temporiser le remplissage intempestif de la machine par elle-même, mais le plus souvent la problématique se situe entre le clavier et la chaise (ha ha). Nous voulons vraiment nous poser comme l’interface entre l’utilisateur et l’industrie électronique : tel un mode d’emploi pour l’usager, une exigence d’accessibilité pour l’informatique.

Et quel rapport avec le logiciel libre ?

Le rapport est énorme, comme dirait Monsieur Luchini ! En plus de promouvoir le logiciel libre dans toute sa splendeur pour nos systèmes, nous portons cette dynamique du partage et de la communauté, qu’on pourrait appeler pompeusement « philosophie du libre », dans tout ce que nous faisons. Nous sommes intimement convaincus que le libre est l’avenir de l’informatique à tous points de vue (sécurité utilisateurs, sûreté des données, fiabilité…).

Vous avez besoin de quoi pour démarrer ? Vous avez lancé un crowdfunding ?

Nous avons besoin de nous faire connaître. Notre communauté s’agrandit de jour en jour et les témoignages de satisfaction de nos membres nous indiquent que nous sommes sur la bonne route.
Nous n’avons pour le moment pas lancé de démarche pour obtenir du financement extérieur. Nous favorisons un développement organique, qui nous permet de rester très proches de nos membres, ce qui est notre principale préoccupation ! Nous avons déjà imaginé cinq nouveaux concepts que nous présenterons en 2016 et qui seront toujours dans la lignée de nos valeurs. À ce moment-là, nous envisagerons sans doute un financement de ce type. À l’heure actuelle, il y a encore beaucoup à faire pour que les ordinateurs, tablettes et smartphones soient aussi fiables qu’ils pourraient l’être !

Pendant que tu t’occupes de rafraîchir mon portable, tu peux placer un dernier mot. Profite !

Arrêtez de manger des céréales sur vos claviers d’ordinateur, ils ne s’en porteront que mieux ! 🙂

http://www.mcarre.fr/




Menaces sur les œuvres du domaine public

La numérisation des collections patrimoniales des musées devrait constituer une chance pour la diffusion de la culture. Trop souvent hélas, ce n’est pas le cas, à cause du copyfraud auquel se livrent les institutions. Comme l’a dit très justement Pier-Carl Langlais, le copyfraud est l’inverse du piratage : une revendication abusive de droits sur le domaine public pour en restreindre la réutilisation.

Les exemples de copyfraud ne manquaient déjà pas, mais le Reiss Engelhorn Museum de Mannheim en Allemagne a franchi cette semaine une ligne rouge en la matière. L’établissement a en effet décidé d’attaquer en justice la Wikimedia Foundation et Wikimedia Deuschland, pour la diffusion de 17 images d’œuvres du domaine public sur Wikimedia Commons. Depuis 2008, la Wikimedia Foundation a défini une position très claire à propos du copyfraud, en indiquant qu’elle ne reconnaissait pas la légitimité des restrictions rajoutées sur la réutilisation d’images en deux dimensions d’œuvres du domaine public. L’année suivante, une alerte sérieuse s’était produite lorsque le wikimédien Derrick Coetzee avait téléversé sur Wikimedia Commons plusieurs milliers d’images extraites du site de la National Portrait Gallery de Londres. Son geste dénonçait le fait qu’elle portait un copyright alors qu’elles correspondaient à des œuvres du domaine public . La National Portait Gallery avait alors agité la menace d’un procès, sans la mettre à exécution à la différence cette fois du musée Reiss Engelhorn.

Si l’on peut déplorer un tel comportement de la part d’une institution patrimoniale, ce sera peut-être aussi l’occasion pour un tribunal de se prononcer sur la légalité des pratiques de copyfraud. Comme le dit la fondation Wikimedia dans sa réponse au musée, la reproduction fidèle de tableaux ne crée pas une « nouvelle œuvre » et il est improbable que ces photographies satisfassent au critère de l’originalité, impliquant que le créateur imprime « l’empreinte de sa personnalité » dans son œuvre pour bénéficier d’une protection.

En France également, nombreux sont les établissements culturels se livrant à des pratiques de copyfraud. Le site Images d’art, lancé récemment par la Réunion des Musées Nationaux, comporte plus de 500 000 œuvres numérisées provenant de nombreux musées français. Mais toutes ces images portent le copyright du photographe les ayant réalisées, ce qui en interdit la réutilisation. Quelques institutions choisissent pourtant au contraire de diffuser librement leurs images et certaines comme le Musée des Augustins à Toulouse ou le Musée des Beaux Arts de Lyon ont engagé des partenariats avec Wikimedia France pour diffuser leurs images sur Wikipédia . Mais elles restent encore minoritaires.

Le plus inquiétant, c’est que la loi française risque bientôt d’évoluer pour légaliser les pratiques de copyfraud. Le recours au droit d’auteur par le musée Reiss Engelhorn reste juridiquement très fragile et la fondation Wikimédia peut encore affronter un procès avec des chances sérieuses de l’emporter. Mais la loi Valter, actuellement en cours d’adoption, s’apprête à consacrer la possibilité pour les établissements culturels de fixer des redevances de réutilisation sur les reproductions d’œuvres qu’elles produisent — y compris à partir des œuvres du domaine public —  en les assimilant à des données publiques.

Là où devant la justice allemande, on peut encore revendiquer le droit de réutiliser le domaine public librement, ce ne sera peut-être bientôt plus possible en France.

Lionel Maurel (Calimaq)

*  *  *  *  *

Wikimedia Foundation et Wikimedia Deutschland invitent instamment le musée Reiss Engelhorn à abandonner ses poursuites concernant des œuvres d’art du domaine public.

source : cet article du blog de Wikimedia
Traduction Framalang : KoS, goofy, Bromind, sebastien, r0u

Le 28 octobre, le musée Reiss Engelhorn de Mannheim, en Allemagne, a intenté un procès à la Wikimedia Foundation et ensuite à Wikimedia Deutschland, la branche allemande du mouvement international Wikimedia. L’objet en est une plainte pour copyright concernant 17 images d’œuvres d’art du musée qui relèvent du domaine public et qui ont été mises en ligne sur Wikimedia Commons. Wikimedia Foundation et Wikimedia Deutschland examinent la plainte et feront une réponse commune avant l’échéance fixée en décembre.

La Wikimedia Foundation et Wikimedia Deutschland maintiennent fermement leur engagement à rendre les œuvres publiques gratuites et libres d’accès. Les institutions publiques telles que les galeries et musées ont la même mission, et ont été des alliées historiques pour rendre accessibles à tous les connaissances du monde entier. Avec ce procès, le musée Reiss Engelhorn limite l’accès public à d’importantes œuvres culturelles qui seraient inaccessibles autrement pour le reste du monde.

Les peintures, portraits et autres œuvres d’art concernés par ce procès sont exposés au sein du musée Reiss Engelhorn, mais sont déjà présents dans le domaine public. Quoi qu’il en soit, la loi allemande sur le droit d’auteur peut s’appliquer aux photographies des œuvres qui appartiennent au domaine public, selon différents critères incluant l’artiste créateur de l’œuvre lui-même, la compétence et les efforts qui ont été mis dans la photographie, la créativité et l’originalité, et enfin l’art en tant que tel. Le musée Reiss Engelhorn prétend que ces images sont soumises au droit d’auteur car le musée a rémunéré le photographe qui a pris certaines d’entre elles, ce qui lui a demandé du temps, de la compétence et des efforts pour les prendre. Le Musée Reiss Engelhorn affirme encore que, à  cause de ce droit d’auteur, les images des œuvres d’art ne peuvent pas être partagées au travers des Wikimedia Commons.

635px-Hendrick_Goltzius_Cadmus_Statens_Museum_for_Kunst_1183Les œuvres du domaine public affrontant l’hydre du droit d’auteur (allégorie)

(Hendrick Goltzius, Cadmus (Statens Museum for Kunst). Licence Domaine public via Commons)

La Wikimedia Foundation et Wikimedia Deutschland estiment que le point de vue du musée Reiss Engelhorn est erroné. Les lois sur le droit d’auteur ne doivent pas être utilisées à mauvais escient dans le but de contrôler la dissémination d’œuvres d’art appartenant au domaine public depuis longtemps, telles que les peintures exposées au musée Reiss Engelhorn. Le but du droit d’auteur est de récompenser la créativité et l’originalité, et non de créer de nouveaux droits limitant le partage en ligne d’images d’œuvres du domaine public. De plus, même si la loi allemande accorde quelques droits sur ces images, nous pensons qu’utiliser ces droits dans le but d’empêcher le partage des travaux du domaine public va à l’encontre de la mission du musée Reiss Engelhorn et de la ville de Mannheim et appauvrit l’héritage culturel mondial.

De nombreuses institutions se sont donné pour mission de rendre leurs collections le plus accessible possible pour le monde entier. En octobre, le musée des Arts et Métiers d’Hambourg, en Allemagne, a rendu sa collection accessible librement en ligne. Le Rijksmuseum d’Amsterdam a fourni un accès en ligne à toutes ses peintures, y compris la possibilité de les télécharger et d’utiliser les reproductions sous licence domaine public CC0. Au Danemark, SMK (Statens Museum for Kunst, la Galerie Nationale du Danemark) a rendu publiques ses images et vidéos numériques sous la licence CC-BY. La British Library [N.d.T : Bibliothèque de Grande-Bretagne, équivalent de la BNF] et le Japan Center for Asian Historical Records [N.d.T : le Centre japonais d’archives historiques asiatiques] ont conjointement libéré plus de 200 gravures japonaises et chinoises dans le domaine public.
Ces institutions culturelles conservent les valeurs du domaine public et protègent le droit de prendre part à notre héritage culturel. La tentative du musée Reiss Engelhorn de créer un nouveau copyright dans le domaine public va à l’encontre des principes européens sur le domaine public.

soldatsFrançaisL’armée française part en campagne contre le copyfraud

(image issue du catalogue en ligne de The British Library, aucune restriction de droit d’auteur connue – Voir tous les détails)

Dans un communiqué du 11 août 2008, la Commission européenne a écrit : « il faut souligner qu’il est essentiel que les œuvres qui sont dans le domaine public restent accessibles après un changement de format. En d’autres termes, les œuvres qui sont dans le domaine public devraient y rester une fois numérisées et être rendues accessibles par Internet ». Cela a été renforcé par la charte d’Europeana de 2010 qui stipule : « Aucun autre droit sur la propriété intellectuelle ne doit être utilisé pour rétablir une exclusivité sur des matériaux du domaine public. Le domaine public fait partie intégrante de l’équilibre interne du système de droit d’auteur. Cet équilibre interne ne doit pas être rompu par des tentatives pour obtenir ou rétablir un contrôle exclusif via des règles extérieures au droit d’auteur. »

Ces dernières années, le mouvement Wikimédia a bénéficié de partenariats fructueux avec des musées et des galeries à travers le monde grâce à l’initiative GLAM-Wiki, qui aide des institutions culturelles à partager leurs ressources avec le monde entier par le biais de projets de collaboration avec des éditeurs expérimentés de Wikipédia. Ces partenariats ont permis à des millions de personnes de découvrir et d’apprécier des collections situées dans des endroits qu’ils ne pourront jamais visiter. Wikimédia Deutschland, seule, a travaillé avec plus de 30 musées en Allemagne pour rendre leurs collections accessibles gratuitement à n’importe qui n’importe où, au travers des projets Wikimédia. Ces partenariats font partie d’un effort indispensable qui permet aux institutions culturelles et à Wikimédia d’accomplir leur mission de libération de la connaissance et de partage de la culture.

Partout dans le monde des gens utilisent Wikipédia pour découvrir et comprendre le monde qui les entoure. Grâce à Internet, de nombreux obstacles traditionnels à la connaissance et à l’apprentissage ont disparu. Refuser l’accès en ligne à des images du domaine public empêche les gens d’explorer et de partager notre patrimoine culturel mondial. Nous exhortons le musée Reiss Engelhorn à reconsidérer sa position et à travailler avec la communauté Wikimédia pour rendre encore plus accessibles leurs œuvres élevées dans le domaine public.

Michelle Paulson, Legal Director
Geoff Brigham, General Counsel
Wikimedia Foundation