Un hackathon pour Sympa

Pendant que vous cherchez la contrepèterie dans ce titre purement factuel, on vous explique : Sympa, c’est le logiciel qui nous permet de gérer Framalistes, un des services de notre modeste plan de libération du monde© !

Marc Chantreux a lancé une invitation à tous les fans de Sympa (eh oui, ils sont sympas, on va se débarrasser de ça tout de suite) pour le rejoindre dans un grand hackathon à Strasbourg le week-end du premier avril 2017.

C’est super, mais… c’est quoi ?

 

 

 

 

 

Bonjour Marc, est-ce que tu veux bien te présenter ?

Je m’appelle Marc Chantreux, je suis libriste (par conviction éthique et technique) depuis les années 90 et suis actuellement informaticien à l’université de Strasbourg où j’ai géré sympa pendant 5 ans.

Sympa, le logiciel libre qui nous sert à gérer Framalistes, va fêter ses 20 ans, c’est bien ça ?

C’est ça et je me suis connecté pour la première fois à Internet la même année. Ce qui m’a immédiatement plu à l’époque, ce n’était pas la quantité de documentation disponible (parce qu’on avait déjà des e-zines et autres documentations qui circulaient sur CD-Rom ou supports imprimés) mais la possibilité de poser directement des questions aux experts dans une ambiance extrêmement ouverte et respectueuse. Les deux principaux outils pour cela étaient Usenet et les listes de discussion. En France, un gros hébergeur de listes était Universalistes qui tournait déjà (qui tourne toujours) sous sympa.

Ce logiciel a été créé et maintenu par la communauté universitaire française depuis l’origine. Entre temps, sympa a été adopté dans le monde entier et s’est enrichi de fonctionnalités nécessaires au travail collaboratif pour lequel les listes étaient utilisées (documents partagés, archives, modération, délégation de droits, etc.).

Je me réjouis de voir que Framasoft ait monté une instance de sympa pour sa communauté mais perso, j’aurais utilisé « framagroupes » comme nom.

À cette occasion tu organises un fork communautaire et un hackathon. Tu peux nous expliquer ? Nan, parce que Framasky, il m’a demandé de t’interviewer mais j’y comprends que pouic. 🙂

Ces dernières années, la communauté universitaire a affecté de moins en moins de ressources jusqu’à ce que tout s’arrête complètement au courant de l’année dernière. La communauté est pourtant forte de millions d’utilisateurs et il n’existe pas d’alternative crédible si on considère sympa dans son ensemble. J’ai donc proposé à la communauté de se rassembler pour s’organiser et posé les bases d’un développement qui ne repose plus sur le seul acteur historique (RENATER). Les 20 ans de sympa tombaient un week-end, c’était une belle occasion.

RENATER a réagi très positivement à cette initiative et nous a rapidement prêté assistance, en ouvrant une partie de l’infrastructure, en parrainant la venue du leader historique du projet — David Verdin — et en nous rassurant sur leur volonté de rester investi dans le projet. J’ai eu des échanges téléphoniques et électroniques avec leur direction technique et je suis confiant dans la perspective de voir RENATER redonner de la force de frappe à sympa.

Et c’est quoi, l’objectif de ce hackathon ? Sur quel critère le jugeras-tu réussi ?

L’objectif de ce hackathon est d’initier les projets qui permettront aux utilisateurs de sympa d’avoir accès plus simplement à un grand nombre de fonctionnalités. Il nous faut au passage nous mettre d’accord sur des pratiques communes de développement mais le plus important pour moi n’est pas là.

Je suis membre de longue date de la communauté Perl et je suis toujours ému par l’énergie qui se dégage du sentiment que nous partageons tous d’appartenir à une communauté soudée, au service de millions d’utilisateurs et vivant une grande aventure technique avec des défis à relever au quotidien pour produire le meilleur logiciel possible. Si nous arrivons à faire germer cet esprit dans la communauté sympa naissante, alors je serais heureux.

Le hackathon, c’est que pour les développeurs, ou tout le monde peut contribuer ?

Sympa est comme tout logiciel libre : sa valeur réside dans son utilité et non dans son code.

Pour le rendre utile, il faut aussi le rendre accessible et visible et nous avons besoin de faire plein de choses nécessitant plein de compétences ! Dites-moi ce que vous voulez ou savez faire et j’aurais probablement des tâches à vous proposer. Celles qui me viennent sont : collecter les besoins et retours des utilisateurs, organiser ou participer à des événements, faire du graphisme et de la communication, nous aider à réaliser de la documentation, créer et animer la formation, assister les communautés d’utilisateur, faire de la traduction…

Il va y avoir du beau monde, dans ce hackathon, les copains de Yunohost, notamment. Qui d’autre ?

De nombreux acteurs associatifs en faveur de l’auto-hébergement et de l’internet neutre (par exemple Framasoft, YUNoHost, ARN qui est un FAI associatif alsacien) mais aussi des hackers du Libre User Group alsacien et du Hackstub, des membres de la communauté universitaire (Universités de Strasbourg et Oslo et RENATER qui est le FAI des universités françaises) ainsi que les sociétés Hackcendo et Linuxia.

Et ça se passe où ? Il faut s’inscrire quelque part ?

Ça se passe au portique de l’université de Strasbourg mais les inscriptions sont maintenant closes. Désolé…

Du coup, on peut participer à distance ? Ou aider d’une autre façon ?

Bien sûr : le mieux est de rejoindre le canal IRC #sympa sur freenode dès maintenant et de dire que vous êtes intéressés par la contribution. Si vous avez du mal avec l’anglais, vous pouvez aussi vous abonner à la liste sympa-fr (https://listes.renater.fr/sympa/info/sympa-fr) ou me contacter directement.

Sympa, ça peut gérer des listes de diffusion vraiment balaises ? Genre quoi ?

Genre j’ai personnellement géré des listes de 140 000 abonnés ou le goulot d’étranglement n’était pas sympa mais l’infra de messagerie. Les listes permettant de contacter l’ensemble des personnels de l’enseignement supérieur tournent avec sympa et il existe des groupes qui dépassent le million d’abonnés.

Mais si on se lance dans le concours du plus gros site, je dirais que le principal intérêt de sympa réside non pas dans sa capacité d’envoyer des millions de messages mais de réussir à les envoyer en respectant l’état de l’art dans les pratiques relatives à la lutte anti-spam (DMARC, DKIM…) et de donner la possibilité à des administrateurs d’industrialiser la création et la maintenance d’un grand nombre de listes (l’université de Strasbourg en compte près de 35 000).

Comme d’hab, nous te laissons le mot de la fin, lâche-toi.

Lors de l’apparition des premiers web fora, j’ai vu les communautés se diviser autour des outils de discussion. les « surfers » (qui aiment les fora pour leur côté immédiat, simple et « beau ») et les fans de la messagerie électronique qui apprécient le degré de liberté qui leur est donné de présenter et traiter les messages comme ils l’entendent. Les deux approches sont valables et ne devraient pas être un frein pour ce qui compte réellement : l’échange ! Avec ses outils (postage, archives en ligne, dépôt de documents) sympa est soit un gestionnaire de listes haut de gamme soit le système de forum avec la pire interface web du monde.

L’urgence de sympa, c’est donc son interface web et c’est là-dessus que nous allons mettre le paquet.

Pour en savoir plus, et surtout donner un coup de main, c’est par ici




Google, nouvel avatar du capitalisme, celui de la surveillance

Nous avons la chance d’être autorisés à traduire et publier un long article qui nous tient à cœur : les idées et analyses qu’il développe justifient largement les actions que nous menons avec vous et pour le plus grand nombre.

Avant propos

Par Framatophe.

Dans ses plus récents travaux, Shoshana Zuboff procède à une analyse systématique de ce qu’elle appelle le capitalisme de surveillance. Il ne s’agit pas d’une critique du capitalisme-libéral en tant qu’idéologie, mais d’une analyse des mécanismes et des pratiques des acteurs dans la mesure où elles ont radicalement transformé notre système économique. En effet, avec la fin du XXe siècle, nous avons aussi vu la fin du (néo)libéralisme dans ce qu’il avait d’utopique, à savoir l’idée (plus ou moins vérifiée) qu’en situation d’abondance, chacun pouvait avoir la chance de produire et capitaliser. Cet égalitarisme, sur lequel s’appuient en réalité bien des ressorts démocratiques, est mis à mal par une nouvelle forme de capitalisme : un capitalisme submergé par des monopoles capables d’utiliser les technologies de l’information de manière à effacer la « libre concurrence » et modéliser les marchés à leurs convenances. La maîtrise de la production ne suffit plus : l’enjeu réside dans la connaissance des comportements. C’est de cette surveillance qu’il s’agit, y compris lorsqu’elle est instrumentalisée par d’autres acteurs, comme un effet de bord, telle la surveillance des États par des organismes peu scrupuleux.

La démarche intellectuelle de Shoshana Zuboff est très intéressante. Spécialiste au départ des questions managériales dans l’entreprise, elle a publié un ouvrage en 1988 intitulé In the Age Of The Smart Machine où elle montre comment les mécanismes productivistes, une fois dotés des moyens d’« informationnaliser » la division du travail et son contrôle (c’est-à-dire qu’à chaque fois que vous divisez un travail en plusieurs tâches vous pouvez en renseigner la procédure pour chacune et ainsi contrôler à la fois la production et les hommes), ont progressivement étendu l’usage des technologies de l’information à travers toutes les chaînes de production, puis les services, puis les processus de consommation, etc. C’est à partir de ces clés de lecture que nous pouvons alors aborder l’état de l’économie en général, et on s’aperçoit alors que l’usage (lui même générateur de profit) des Big Data consiste à maîtriser les processus de consommation et saper les mécanismes de concurrence qui étaient auparavant l’apanage revendiqué du libéralisme « classique ».

Ainsi, prenant l’exemple de Google, Shoshana Zuboff analyse les pratiques sauvages de l’extraction de données par ces grands acteurs économiques, à partir des individus, des sociétés, et surtout du quotidien, de nos intimités. Cette appropriation des données comportementales est un processus violent de marchandisation de la connaissance « sur » l’autre et de son contrôle. C’est ce que Shoshana Zuboff nomme Big Other :

« (Big Other) est un régime institutionnel, omniprésent, qui enregistre, modifie, commercialise l’expérience quotidienne, du grille-pain au corps biologique, de la communication à la pensée, de manière à établir de nouveaux chemins vers les bénéfices et les profits. Big Other est la puissance souveraine d’un futur proche qui annihile la liberté que l’on gagne avec les règles et les lois.» 1

Dans l’article ci-dessous, Shoshana Zuboff ne lève le voile que sur un avatar de ce capitalisme de surveillance, mais pas n’importe lequel : Google. En le comparant à ce qu’était General Motors, elle démontre comment l’appropriation des données comportementales par Google constitue en fait un changement de paradigme dans les mécanismes capitalistes : le capital, ce n’est plus le bien ou le stock (d’argent, de produits, de main-d’oeuvre etc.), c’est le comportement et la manière de le renseigner, c’est à dire l’information qu’une firme comme Google peut s’approprier.

Ce qui manquait à la littérature sur ces transformations de notre « société de l’information », c’étaient des clés de lecture capables de s’attaquer à des processus dont l’échelle est globale. On peut toujours en rester à Big Brother, on ne fait alors que se focaliser sur l’état de nos relations sociales dans un monde où le capitalisme de surveillance est un état de fait, comme une donnée naturelle. Au contraire, le capitalisme de surveillance dépasse les États ou toute forme de centralisation du pouvoir. Il est informel et pourtant systémique. Shoshana Zuboff nous donne les clés pour appréhender ces processus globaux, partagé par certaines firmes, où l’appropriation de l’information sur les individus est si totale qu’elle en vient à déposséder l’individu de l’information qu’il a sur lui-même, et même du sens de ses actions.

 

Shoshana Zuboff est professeur émérite à Charles Edward Wilson, Harvard Business School. Cet essai a été écrit pour une conférence en 2016 au Green Templeton College, Oxford. Son prochain livre à paraître en novembre 2017 s’intitule Maître ou Esclave : une lutte pour l’âme de notre civilisation de l’information et sera publié par Eichborn en Allemagne, et par Public Affairs aux États-Unis.

Les secrets du capitalisme de surveillance

par Shoshana Zuboff

Article original en anglais paru dans le Franfurter Allgemeine Zeitung : The Secrets of Surveillance Capitalism

Traduction originale : Dr. Virginia Alicia Hasenbalg-Corabianu, révision Framalang : mo, goofy, Mannik, Lumi, lyn

Le contrôle exercé par les gouvernements n’est rien comparé à celui que pratique Google. L’entreprise crée un genre entièrement nouveau de capitalisme, une logique d’accumulation systémique et cohérente que nous appelons le capitalisme de surveillance. Pouvons-nous y faire quelque chose ?

Nous devons faire face aux assauts menés par les appétits insatiables d’un tout nouveau genre de capitalisme : le capitalisme de surveillance. Image © ddp images

 

Google a dépassé Apple en janvier en devenant la plus grosse capitalisation boursière du monde, pour la première fois depuis 2010 (à l’époque, chacune des deux entreprises valait moins de 200 milliards de dollars; aujourd’hui, chacune est évaluée à plus de 500 milliards). Même si cette suprématie de Google n’a duré que quelques jours, le succès de cette entreprise a des implications pour tous ceux qui ont accès à Internet. Pourquoi ? Parce que Google est le point de départ pour une toute nouvelle forme de capitalisme dans laquelle les bénéfices découlent de la surveillance unilatérale ainsi que de la modification du comportement humain. Il s’agit d’une intrusion globale. Il s’agit d’un nouveau capitalisme de surveillance qui est inimaginable en dehors des insondables circuits à haute vitesse de l’univers numérique de Google, dont le vecteur est l’Internet et ses successeurs. Alors que le monde est fasciné par la confrontation entre Apple et le FBI, véritable réalité est que les capacités de surveillance d’espionnage en cours d’élaboration par les capitalistes de la surveillance sont enviées par toutes les agences de sécurité des États. Quels sont les secrets de ce nouveau capitalisme, comment les entreprises produisent-elles une richesse aussi stupéfiante, et comment pouvons-nous nous protéger de leur pouvoir envahissant ?

I. Nommer et apprivoiser

La plupart des Américains se rendent compte qu’il y a deux types de personnes qui sont régulièrement surveillées quand elles se déplacent dans le pays. Dans le premier groupe, celles qui sont surveillées contre leur volonté par un dispositif de localisation attaché à la cheville suite à une ordonnance du tribunal. Dans le second groupe, toutes les autres.

Certains estiment que cette affirmation est absolument fondée. D’autres craignent qu’elle ne puisse devenir vraie. Certains doivent penser que c’est ridicule. Ce n’est pas une citation issue d’un roman dystopique, d’un dirigeant de la Silicon Valley, ni même d’un fonctionnaire de la NSA. Ce sont les propos d’un consultant de l’industrie de l’assurance automobile, conçus comme un argument en faveur de « la télématique automobile » et des capacités de surveillance étonnamment intrusives des systèmes prétendument bénins déjà utilisés ou en développement. C’est une industrie qui a eu une attitude notoire d’exploitation de ses clients et des raisons évidentes d’être inquiète, pour son modèle économique, des implications des voitures sans conducteur. Aujourd’hui, les données sur l’endroit où nous sommes et celui où nous allons, sur ce que nous sentons, ce que nous disons, les détails de notre conduite, et les paramètres de notre véhicule se transforment en balises de revenus qui illuminent une nouvelle perspective commerciale. Selon la littérature de l’industrie, ces données peuvent être utilisées pour la modification en temps réel du comportement du conducteur, déclencher des punitions (hausses de taux en temps réel, pénalités financières, couvre-feux, verrouillages du moteur) ou des récompenses (réductions de taux, coupons à collectionner pour l’achat d’avantages futurs).

Bloomberg Business Week note que ces systèmes automobiles vont donner aux assureurs la possibilité d’augmenter leurs recettes en vendant des données sur la conduite de leur clientèle de la même manière que Google réalise des profits en recueillant et en vendant des informations sur ceux qui utilisent son moteur de recherche. Le PDG de Allstate Insurance veut être à la hauteur de Google. Il déclare : « Il y a beaucoup de gens qui font de la monétisation des données aujourd’hui. Vous allez chez Google et tout paraît gratuit. Ce n’est pas gratuit. Vous leur donnez des informations ; ils vendent vos informations. Pourrions-nous, devrions-nous vendre ces informations que nous obtenons des conducteurs à d’autres personnes, et réaliser ainsi une source de profit supplémentaire…? C’est une partie à long terme. »

Qui sont ces « autres personnes » et quellle est cette « partie à long terme » ? Il ne s’agit plus de l’envoi d’un catalogue de vente par correspondance ni le ciblage de la publicité en ligne. L’idée est de vendre l’accès en temps réel au flux de votre vie quotidienne – votre réalité – afin d’influencer et de modifier votre comportement pour en tirer profit. C’est la porte d’entrée vers un nouvel univers d’occasions de monétisation : des restaurants qui veulent être votre destination ; des fournisseurs de services qui veulent changer vos plaquettes de frein ; des boutiques qui vous attirent comme les sirènes des légendes. Les « autres personnes », c’est tout le monde, et tout le monde veut acheter un aspect  de votre comportement pour leur profit. Pas étonnant, alors, que Google ait récemment annoncé que ses cartes ne fourniront pas seulement l’itinéraire que vous recherchez, mais qu’elles suggéreront aussi une destination.

Le véritable objectif : modifier le comportement réel des gens, à grande échelle.

Ceci est juste un coup d’œil pris au vol d’une industrie, mais ces exemples se multiplient comme des cafards. Parmi les nombreux entretiens que j’ai menés au cours des trois dernières années, l’ingénieur responsable de la gestion et analyse de méga données d’une prestigieuse entreprise de la Silicon Valley qui développe des applications pour améliorer l’apprentissage des étudiants m’a dit : « Le but de tout ce que nous faisons est de modifier le comportement des gens à grand échelle. Lorsque les gens utilisent notre application, nous pouvons cerner leurs comportements, identifier les bons et les mauvais comportements, et développer des moyens de récompenser les bons et punir les mauvais. Nous pouvons tester à quel point nos indices sont fiables pour eux et rentables pour nous. »

L’idée même d’un produit efficace, abordable et fonctionnel puisse suffire aux échanges commerciaux est en train de mourir. L’entreprise de vêtements de sport Under Armour réinvente ses produits comme des technologies que l’on porte sur soi. Le PDG veut lui aussi ressembler à Google. Il dit : « Tout cela ressemble étrangement à ces annonces qui, à cause de votre historique de navigation, vous suivent quand vous êtes connecté à l’Internet (Internet ou l’internet), c’est c’est justement là le problème – à ce détail près que Under Armour traque votre comportement réel, et que les données obtenues sont plus spécifiques… si vous incitez les gens à devenir de meilleurs athlètes ils auront encore plus besoin de notre équipement. » Les exemples de cette nouvelle logique sont infinis, des bouteilles de vodka intelligentes aux thermomètres rectaux reliés à Internet, et littéralement tout ce qu’il y a entre les deux. Un rapport de Goldman Sachs appelle une « ruée vers l’or » cette course vers « de gigantesques quantités de données ».

La bataille des données comportementales

Nous sommes entrés dans un territoire qui était jusqu’alors vierge. L’assaut sur les données de comportement progresse si rapidement qu’il ne peut plus être circonscrit par la notion de vie privée et sa revendication. Il y a un autre type de défi maintenant, celui qui menace l’idéal existentiel et politique de l’ordre libéral moderne défini par les principes de l’autodétermination constitué au cours des siècles, voire des millénaires. Je pense à des notions qui entre autres concernent dès le départ le caractère sacré de l’individu et les idéaux de l’égalité sociale ; le développement de l’identité, l’autonomie et le raisonnement moral ; l’intégrité du marché ; la liberté qui revient à la réalisation et l’accomplissement des promesses ; les normes et les règles de la collectivité ; les fonctions de la démocratie de marché ; l’intégrité politique des sociétés et l’avenir de la souveraineté démocratique. En temps et lieu, nous allons faire un bilan rétrospectif de la mise en place en Europe du « Droit à l’Oubli » et l’invalidation plus récente de l’Union européenne de la doctrine Safe Harbor2 comme les premiers jalons d’une prise en compte progressive des vraies dimensions de ce défi.

Il fut un temps où nous avons imputé la responsabilité de l’assaut sur les données comportementales à l’État et à ses agences de sécurité. Plus tard, nous avons également blâmé les pratiques rusées d’une poignée de banques, de courtiers en données et d’entreprises Internet. Certains attribuent l’attaque à un inévitable « âge des mégadonnées », comme s’il était possible de concevoir des données nées pures et irréprochables, des données en suspension dans un lieu céleste où les faits se subliment dans la vérité.

Le capitalisme a été piraté par la surveillance

Je suis arrivée à une conclusion différente : l’assaut auquel nous sommes confronté⋅e⋅s est conduit dans une large mesure par les appétits exceptionnels d’un tout nouveau genre du capitalisme, une nouvelle logique systémique et cohérente de l’accumulation que j’appelle le capitalisme de surveillance. Le capitalisme a été détourné par un projet de surveillance lucrative qui subvertit les mécanismes évolutifs « normaux » associés à son succès historique et qui corrompt le rapport entre l’offre et la demande qui, pendant des siècles, même imparfaitement, a lié le capitalisme aux véritables besoins de ses populations et des sociétés, permettant ainsi l’expansion fructueuse de la démocratie de marché.

© AFP Eric Schmidt siégeant à Google/Alphabet

Le capitalisme de surveillance est une mutation économique nouvelle, issue de l’accouplement clandestin entre l’énorme pouvoir du numérique avec l’indifférence radicale et le narcissisme intrinsèque du capitalisme financier, et la vision néolibérale qui a dominé le commerce depuis au moins trois décennies, en particulier dans les économies anglo-saxonnes. C’est une forme de marché sans précédent dont les racines se développent dans un espace de non-droit. Il a été découvert et consolidé par Google, puis adopté par Facebook et rapidement diffusé à travers l’Internet. Le cyberespace est son lieu de naissance car, comme le célèbrent Eric Schmidt, Président de Google/Alphabet, et son co-auteur Jared Cohen, à la toute première page de leur livre sur l’ère numérique, « le monde en ligne n’est vraiment pas attaché aux lois terrestres… Il est le plus grand espace ingouvernable au monde ».

Alors que le capitalisme de surveillance découvre les pouvoirs invasifs de l’Internet comme source d’accumulation de capital et de création de richesses, il est maintenant, comme je l’ai suggéré, prêt à transformer aussi les pratiques commerciales au sein du monde réel. On peut établir l’analogie avec la propagation rapide de la production de masse et de l’administration dans le monde industrialisé au début du XXe siècle, mais avec un bémol majeur. La production de masse était en interaction avec ses populations qui étaient ses consommateurs et ses salariés. En revanche, le capitalisme de surveillance se nourrit de populations dépendantes qui ne sont ni ses consommateurs, ni ses employés, mais largement ignorantes de ses pratiques.

L’accès à Internet, un droit humain fondamental

Nous nous étions jetés sur Internet pour y trouver réconfort et solutions, mais nos besoins pour une vie efficace ont été contrecarrés par les opérations lointaines et de plus en plus impitoyables du capitalisme de la fin du XXe siècle. Moins de deux décennies après l’introduction du navigateur web Mosaic auprès du public, qui permettait un accès facile au World Wide Web, un sondage BBC de 2010 a révélé que 79 % des personnes de 26 pays différents considéraient l’accès à l’Internet comme un droit humain fondamental. Tels sont les Charybde et Scylla de notre sort. Il est presque impossible d’imaginer la participation à une vie quotidienne efficace – de l’emploi à l’éducation, en passant par les soins de santé – sans pouvoir accéder à Internet et savoir s’en servir, même si ces espaces en réseau autrefois florissants s’avèrent être une forme nouvelle et plus forte d’asservissement. Il est arrivé rapidement et sans notre accord ou entente préalable. En effet, les préjudices les plus poignants du régime ont été difficiles à saisir ou à théoriser, brouillés par l’extrême vitesse et camouflés par des opérations techniques coûteuses et illisibles, des pratiques secrètes des entreprises, de fausses rhétoriques discursives, et des détournements culturels délibérés.

Apprivoiser cette nouvelle force nécessite qu’elle soit nommée correctement. Cette étroite interdépendance du nom et de l’apprivoisement est clairement illustrée dans l’histoire récente de la recherche sur le VIH que je vous propose comme analogie. Pendant trois décennies, les recherches des scientifiques visaient à créer un vaccin en suivant la logique des guérisons précédentes qui amenaient le système immunitaire à produire des anticorps neutralisants. Mais les données collectées et croisées ont révélé des comportements imprévus du virus VIH défiant les modèles obtenus auprès d’autres maladies infectieuses.

L’analogie avec la recherche contre le SIDA

La tendance a commencé à prendre une autre direction à la Conférence internationale sur le SIDA en 2012, lorsque de nouvelles stratégies ont été présentées reposant sur une compréhension plus adéquate de la biologie des quelques porteurs du VIH, dont le sang produit des anticorps naturels. La recherche a commencé à se déplacer vers des méthodes qui reproduisent cette réponse d’auto-vaccination. Un chercheur de pointe a annoncé : « Nous connaissons le visage de l’ennemi maintenant, et nous avons donc de véritables indices sur la façon d’aborder le problème. »

Ce qu’il nous faut en retenir : chaque vaccin efficace commence par une compréhension approfondie de la maladie ennemie. Nous avons tendance à compter sur des modèles intellectuels, des vocabulaires et des outils mis en place pour des catastrophes passées. Je pense aux cauchemars totalitaires du XXe siècle ou aux prédations monopolistiques du capitalisme de l’Âge d’Or. Mais les vaccins que nous avons développés pour lutter contre ces menaces précédentes ne sont pas suffisants ni même appropriés pour les nouveaux défis auxquels nous sommes confrontés. C’est comme si nous lancions des boules de neige sur un mur de marbre lisse pour ensuite les regarder glisser et ne laisser rien d’autre qu’une trace humide : une amende payée ici, un détour efficace là.

Une impasse de l’évolution

Je tiens à dire clairement que le capitalisme de surveillance n’est pas la seule modalité actuelle du capitalisme de l’information, ni le seul modèle possible pour l’avenir. Son raccourci vers l’accumulation du capital et l’institutionnalisation rapide, cependant, en a fait le modèle par défaut du capitalisme de l’information. Les questions que je pose sont les suivantes : est-ce que le capitalisme de surveillance devient la logique dominante de l’accumulation dans notre temps, ou ira-t-il vers une impasse dans son évolution – une poule avec des dents au terme de l’évolution capitaliste ? Qu’est-ce qu’un vaccin efficace impliquerait ? Quel pourrait être ce vaccin efficace ?

Le succès d’un traitement dépend de beaucoup d’adaptations individuelles, sociales et juridiques, mais je suis convaincue que la lutte contre la « maladie hostile » ne peut commencer sans une compréhension des nouveaux mécanismes qui rendent compte de la transformation réussie de l’investissement en capital par le capitalisme de surveillance. Cette problématique a été au centre de mon travail dans un nouveau livre, Maître ou Esclave : une lutte pour le cœur de notre civilisation de l’information, qui sera publié au début de l’année prochaine. Dans le court espace de cet essai, je voudrais partager certaines de mes réflexions sur ce problème.

II. L’avenir : le prédire et le vendre

Les nouvelles logiques économiques et leurs modèles commerciaux sont élaborés dans un temps et lieu donnés, puis perfectionnés par essais et erreurs. Ford a mis au point et systématisé la production de masse. General Motors a institutionnalisé la production en série comme une nouvelle phase du développement capitaliste avec la découverte et l’amélioration de l’administration à grande échelle et la gestion professionnelle. De nos jours, Google est au capitalisme de surveillance ce que Ford et General Motors étaient à la production en série et au capitalisme managérial il y a un siècle : le découvreur, l’inventeur, le pionnier, le modèle, le praticien chef, et le centre de diffusion.

Plus précisément, Google est le vaisseau amiral et le prototype d’une nouvelle logique économique basée sur la prédiction et sa vente, un métier ancien et éternellement lucratif qui a exploité la confrontation de l’être humain avec l’incertitude depuis le début de l’histoire humaine. Paradoxalement, la certitude de l’incertitude est à la fois une source durable d’anxiété et une de nos expériences les plus fructueuses. Elle a produit le besoin universel de confiance et de cohésion sociale, des systèmes d’organisation, de liaison familiale, et d’autorité légitime, du contrat comme reconnaissance formelle des droits et obligations réciproques, la théorie et la pratique de ce que nous appelons « le libre arbitre ». Quand nous éliminons l’incertitude, nous renonçons au besoin humain de lancer le défi de notre prévision face à un avenir toujours inconnu, au profit de la plate et constante conformité avec ce que d’autres veulent pour nous.

La publicité n’est qu’un facteur parmi d’autres

La plupart des gens attribuent le succès de Google à son modèle publicitaire. Mais les découvertes qui ont conduit à la croissance rapide du chiffre d’affaires de Google et à sa capitalisation boursière sont seulement incidemment liées à la publicité. Le succès de Google provient de sa capacité à prédire l’avenir, et plus particulièrement, l’avenir du comportement. Voici ce que je veux dire :

Dès ses débuts, Google a recueilli des données sur le comportement lié aux recherches des utilisateurs comme un sous-produit de son moteur de recherche. À l’époque, ces enregistrements de données ont été traités comme des déchets, même pas stockés méthodiquement ni mis en sécurité. Puis, la jeune entreprise a compris qu’ils pouvaient être utilisés pour développer et améliorer continuellement son moteur de recherche.

Le problème était le suivant : servir les utilisateurs avec des résultats de recherche incroyables « consommait » toute la valeur que les utilisateurs produisaient en fournissant par inadvertance des données comportementales. C’est un processus complet et autonome dans lequel les utilisateurs sont des « fins-en-soi ». Toute la valeur que les utilisateurs produisent était réinvestie pour simplifier l’utilisation sous forme de recherche améliorée. Dans ce cycle, il ne restait rien à  transformer en capital, pour Google. L’efficacité du moteur de recherche avait autant besoin de données comportementales des utilisateurs que les utilisateurs de la recherche. Faire payer des frais pour le service était trop risqué. Google était sympa, mais il n’était pas encore du capitalisme – seulement l’une des nombreuses startups de l’Internet qui se vantaient de voir loin, mais sans aucun revenu.

Un tournant dans l’usage des données comportementales

L’année 2001 a été celle de l’effervescence dans la bulle du dot.com avec des pressions croissantes des investisseurs sur Google. À l’époque, les annonceurs sélectionnaient les pages du terme de recherche pour les afficher. Google a décidé d’essayer d’augmenter ses revenus publicitaires en utilisant ses capacités analytiques déjà considérables dans l’objectif d’accroître la pertinence d’une publicité pour les utilisateurs – et donc sa valeur pour les annonceurs. Du point de vue opérationnel cela signifiait que Google allait enfin valoriser son trésor croissant de données comportementales. Désormais, les données allaient être aussi utilisées pour faire correspondre les publicités avec les des mots-clés, en exploitant les subtilités que seul l’accès à des données comportementales, associées à des capacités d’analyse, pouvait révéler.

Il est maintenant clair que ce changement dans l’utilisation des données comportementales a été un tournant historique. Les données comportementales qui avaient été rejetées ou ignorées ont été redécouvertes et sont devenues ce que j’appelle le surplus de comportement. Le succès spectaculaire de Google obtenu en faisant correspondre les annonces publicitaires aux pages a révélé la valeur transformationnelle de ce surplus comportemental comme moyen de générer des revenus et, finalement, de transformer l’investissement en capital. Le surplus comportemental était l’actif à coût zéro qui changeait la donne, et qui pouvait être détourné de l’amélioration du service au profit d’un véritable marché. La clé de cette formule, cependant, est que ce nouveau marché n’est pas le fruit d’un échange avec les utilisateurs, mais plutôt avec d’autres entreprises qui ont compris comment faire de l’argent en faisant des paris sur le comportement futur des utilisateurs. Dans ce nouveau contexte, les utilisateurs ne sont plus une fin en soi. Au contraire, ils sont devenus une source de profit d’un nouveau type de marché dans lequel ils ne sont ni des acheteurs ni des vendeurs ni des produits. Les utilisateurs sont la source de matière première gratuite qui alimente un nouveau type de processus de fabrication.

© dapd voir le monde avec l’œil de Google : les Google Glass

Bien que ces faits soient connus, leur importance n’a pas été pleinement évaluée ni théorisée de manière adéquate. Ce qui vient de se passer a été la découverte d’une équation commerciale étonnamment rentable – une série de relations légitimes qui ont été progressivement institutionnalisées dans la logique économique sui generis du capitalisme de surveillance. Cela ressemble à une planète nouvellement repérée avec sa propre physique du temps et de l’espace, ses journées de soixante-sept heures, un ciel d’émeraude, des chaînes de montagnes inversées et de l’eau sèche.

Une forme de profit parasite

L’équation : tout d’abord, il est impératif de faire pression pour obtenir plus d’utilisateurs et plus de canaux, des services, des dispositifs, des lieux et des espaces de manière à avoir accès à une gamme toujours plus large de surplus de comportement. Les utilisateurs sont la ressource humaine naturelle qui fournit cette matière première gratuite.

En second lieu, la mise en œuvre de l’apprentissage informatique, de l’intelligence artificielle et de la science des données pour l’amélioration continue des algorithmes constitue un immense « moyen de production » du XXIe siècle coûteux, sophistiqué et exclusif.

Troisièmement, le nouveau processus de fabrication convertit le surplus de comportement en produits de prévision conçus pour prédire le comportement actuel et à venir.

Quatrièmement, ces produits de prévision sont vendus dans un nouveau type de méta-marché qui fait exclusivement commerce de comportements à venir. Plus le produit est prédictif, plus faible est le risque pour les acheteurs et plus le volume des ventes augmente. Les profits du capitalisme de surveillance proviennent principalement, sinon entièrement, de ces marchés du comportement futur.

Alors que les annonceurs ont été les acheteurs dominants au début de ce nouveau type de marché, il n’y a aucune raison de fond pour que de tels marchés soient réservés à ce groupe. La tendance déjà perceptible est que tout acteur ayant un intérêt à monétiser de l’information probabiliste sur notre comportement et/ou à influencer le comportement futur peut payer pour entrer sur un marché où sont exposées et vendues les ressources issues du comportement des individus, des groupes, des organismes, et les choses. Voici comment dans nos propres vies nous observons le capitalisme se déplacer sous nos yeux : au départ, les bénéfices provenaient de produits et services, puis de la spéculation, et maintenant de la surveillance. Cette dernière mutation peut aider à expliquer pourquoi l’explosion du numérique a échoué, jusqu’à présent, à avoir un impact décisif sur la croissance économique, étant donné que ses capacités sont détournées vers une forme de profit fondamentalement parasite.

III. Un péché non originel

L’importance du surplus de comportement a été rapidement camouflée, à la fois par Google et mais aussi par toute l’industrie de l’Internet, avec des étiquettes comme « restes numériques », « miettes numériques », et ainsi de suite. Ces euphémismes pour le surplus de comportement fonctionnent comme des filtres idéologiques, à l’instar des premières cartes géographiques du continent nord-américain qui marquaient des régions entières avec des termes comme « païens », « infidèles », « idolâtres », « primitifs », « vassaux » ou « rebelles ». En vertu de ces étiquettes, les peuples indigènes, leurs lieux et leurs revendications ont été effacés de la pensée morale et juridique des envahisseurs, légitimant leurs actes d’appropriation et de casse au nom de l’Église et la Monarchie.

Nous sommes aujourd’hui les peuples autochtones dont les exigences implicites d’autodétermination ont disparu des cartes de notre propre comportement. Elles sont effacées par un acte étonnant et audacieux de dépossession par la surveillance, qui revendique son droit d’ignorer toute limite à sa soif de connaissances et d’influence sur les nuances les plus fines de notre comportement. Pour ceux qui s’interrogent sur l’achèvement logique du processus global de marchandisation, la réponse est qu’ils achèvent eux-mêmes la spoliation de notre réalité quotidienne intime, qui apparaît maintenant comme un comportement à surveiller et à modifier, à acheter et à vendre.

Le processus qui a commencé dans le cyberespace reflète les développements capitalistes du dix-neuvième siècle qui ont précédé l’ère de l’impérialisme. À l’époque, comme Hannah Arendt le décrit dans Les Origines du totalitarisme, « les soi-disant lois du capitalisme ont été effectivement autorisées à créer des réalités » ainsi on est allé vers des régions moins développées où les lois n’ont pas suivi. « Le secret du nouvel accomplissement heureux », a-t-elle écrit, « était précisément que les lois économiques ne bloquaient plus la cupidité des classes possédantes. » Là, « l’argent pouvait finalement engendrer de l’argent », sans avoir à passer par « le long chemin de l’investissement dans la production… »

Le péché originel du simple vol

Pour Arendt, ces aventures du capital à l’étranger ont clarifié un mécanisme essentiel du capitalisme. Marx avait développé l’idée de « l’accumulation primitive » comme une théorie du Big-Bang – Arendt l’a appelé « le péché originel du simple vol » – dans lequel l’appropriation de terres et de ressources naturelles a été l’événement fondateur qui a permis l’accumulation du capital et l’émergence du système de marché. Les expansions capitalistes des années 1860 et 1870 ont démontré, écrit Arendt, que cette sorte de péché originel a dû être répété encore et encore, « de peur que le moteur de l’accumulation de capital ne s’éteigne soudainement ».

Dans son livre The New Imperialism, le géographe et théoricien social David Harvey s’appuie sur ce qu’il appelle « accumulation par dépossession ». « Ce que fait l’accumulation par dépossession » écrit-il, « c’est de libérer un ensemble d’actifs… à un très faible (et dans certains cas, zéro) coût ». Le capital sur-accumulé peut s’emparer de ces actifs et les transformer immédiatement en profit… Il peut aussi refléter les tentatives de certains entrepreneurs… de « rejoindre le système » et rechercher les avantages de l’accumulation du capital.

Brèche dans le « système »

Le processus qui permet que le « surplus de comportement » conduise à la découverte du capitalisme de surveillance illustre cette tendance. C’est l’acte fondateur de la spoliation au profit d’une nouvelle logique du capitalisme construite sur les bénéfices de la surveillance, qui a ouvert la possibilité pour Google de devenir une entreprise capitaliste. En effet, en 2002, première année rentable Google, le fondateur Sergey Brin savoura sa percée dans le « système », comme il l’a dit à Levy,

« Honnêtement, quand nous étions encore dans les jours du boom dot-com, je me sentais comme un idiot. J’avais une startup – comme tout le monde. Elle ne générait pas de profit, c’était le cas des autres aussi, était-ce si dur ? Mais quand nous sommes devenus rentables, j’ai senti que nous avions construit une véritable entreprise « .

Brin était un capitaliste, d’accord, mais c’était une mutation du capitalisme qui ne ressemblait à rien de tout ce que le monde avait vu jusqu’alors.

Une fois que nous comprenons ce raisonnement, il devient clair qu’exiger le droit à la vie privée à des capitalistes de la surveillance ou faire du lobbying pour mettre fin à la surveillance commerciale sur l’Internet c’est comme demander à Henry Ford de faire chaque modèle T à la main. C’est comme demander à une girafe de se raccourcir le cou ou à une vache de renoncer à ruminer. Ces exigences sont des menaces existentielles qui violent les mécanismes de base de la survie de l’entité. Comment pouvons-nous nous espérer que des entreprises dont l’existence économique dépend du surplus du comportement cessent volontairement la saisie des données du comportement ? C’est comme demander leur suicide.

Toujours plus de surplus comportemental avec Google

Les impératifs du capitalisme de surveillance impliquent qu’il faudra toujours plus de surplus comportemental pour que Google et d’autres les transforment en actifs de surveillance, les maîtrisent comme autant de prédictions, pour les vendre dans les marchés exclusifs du futur comportement et les transformer en capital. Chez Google et sa nouvelle société holding appelée Alphabet, par exemple, chaque opération et investissement vise à accroître la récolte de surplus du comportement des personnes, des organismes, de choses, de processus et de lieux à la fois dans le monde virtuel et dans le monde réel. Voilà comment un jour de soixante-sept heures se lève et obscurcit un ciel d’émeraude. Il faudra rien moins qu’une révolte sociale pour révoquer le consensus général à des pratiques visant à la dépossession du comportement et pour contester la prétention du capitalisme de surveillance à énoncer les données du destin.

Quel est le nouveau vaccin ? Nous devons ré-imaginer comment intervenir dans les mécanismes spécifiques qui produisent les bénéfices de la surveillance et, ce faisant, réaffirmer la primauté de l’ordre libéral dans le projet capitaliste du XXIe siècle. Dans le cadre de ce défi, nous devons être conscients du fait que contester Google, ou tout autre capitaliste de surveillance pour des raisons de monopole est une solution du XXe siècle à un problème du 20e siècle qui, tout en restant d’une importance vitale, ne perturbe pas nécessairement l’équation commerciale du capitalisme de surveillance. Nous avons besoin de nouvelles interventions qui interrompent, interdisent ou réglementent : 1) la capture initiale du surplus du comportement, 2) l’utilisation du surplus du comportement comme matière première gratuite, 3) des concentrations excessives et exclusives des nouveaux moyens de production, 4) la fabrication de produits de prévision, 5) la vente de produits de prévision, 6) l’utilisation des produits de prévision par des tiers pour des opérations de modification, d’influence et de contrôle, et 5) la monétisation des résultats de ces opérations. Tout cela est nécessaire pour la société, pour les personnes, pour l’avenir, et c’est également nécessaire pour rétablir une saine évolution du capitalisme lui-même.

IV. Un coup d’en haut

Dans la représentation classique des menaces sur la vie privée, le secret institutionnel a augmenté, et les droits à la vie privée ont été érodés. Mais ce cadrage est trompeur, car la vie privée et le secret ne sont pas opposés, mais plutôt des moments dans une séquence. Le secret est une conséquence ; la vie privée est la cause. L’exercice du droit à la vie privée a comme effet la possibilité de choisir, et l’on peut choisir de garder quelque chose en secret ou de le partager. Les droits à la vie privée confèrent donc les droits de décision, mais ces droits de décision ne sont que le couvercle sur la boîte de Pandore de l’ordre libéral. À l’intérieur de la boîte, les souverainetés politiques et économiques se rencontrent et se mélangent avec des causes encore plus profondes et plus subtiles : l’idée de l’individu, l’émergence de soi, l’expérience ressentie du libre arbitre.

Le capitalisme de surveillance ne dégrade pas ces droits à la décision – avec leurs causes et leurs conséquences – il les redistribue plutôt. Au lieu de nombreuses personnes ayant quelques « droits », ces derniers ont été concentrés à l’intérieur du régime de surveillance, créant ainsi une toute nouvelle dimension de l’inégalité sociale. Les implications de cette évolution me préoccupent depuis de nombreuses années, et mon sens du danger s’intensifie chaque jour. L’espace de cet essai ne me permet pas de poursuivre jusqu’à la conclusion, mais je vous propose d’en résumer l’essentiel.

Le capitalisme de surveillance va au-delà du terrain institutionnel classique de l’entreprise privée. Il accumule non seulement les actifs de surveillance et des capitaux, mais aussi des droits. Cette redistribution unilatérale des droits soutient un régime de conformité administré en privé fait de récompenses et des punitions en grande partie déliée de toute sanction. Il opère sans mécanismes significatifs de consentement, soit sous la forme traditionnelle d’un « exit, voice or loyalty »3 associé aux marchés, soit sous la forme d’un contrôle démocratique exprimé par des lois et des règlements.

Un pouvoir profondément antidémocratique

En conséquence, le capitalisme de surveillance évoque un pouvoir profondément anti-démocratique que l’on peut qualifier de coup d’en haut : pas un coup d’état, mais plutôt un coup contre les gens, un renversement de la souveraineté du peuple. Il défie les principes et les pratiques de l’autodétermination – dans la vie psychique et dans les relations sociales, le politique et la gouvernance – pour lesquels l’humanité a souffert longtemps et sacrifié beaucoup. Pour cette seule raison, ces principes ne doivent pas être confisqués pour la poursuite unilatérale d’un capitalisme défiguré. Pire encore serait leur forfait par notre propre ignorance, impuissance apprise, inattention, inconvenance, force de l’habitude, ou laisser aller. Tel est, je crois, le terrain sur lequel notre lutte pour l’avenir devra se dérouler.

Hannah Arendt a dit un jour que l’indignation est la réponse naturelle de l’homme à ce qui dégrade la dignité humaine. Se référant à son travail sur les origines du totalitarisme, elle a écrit : « Si je décris ces conditions sans permettre à mon indignation d’y intervenir, alors j’ai soulevé ce phénomène particulier hors de son contexte dans la société humaine et l’ai ainsi privé d’une partie de sa nature, privé de l’une de ses qualités intrinsèques importantes. »

C’est donc ainsi pour moi et peut-être pour vous : les faits bruts du capitalisme de surveillance suscitent nécessairement mon indignation parce qu’ils rabaissent la dignité humaine. L’avenir de cette question dépendra des savants et journalistes indignés attirés par ce projet de frontière, des élus et des décideurs indignés qui comprennent que leur autorité provient des valeurs fondamentales des communautés démocratiques, et des citoyens indignés qui agissent en sachant que l’efficacité sans l’autonomie n’est pas efficace, la conformité induite par la dépendance n’est pas un contrat social et être libéré de l’incertitude n’est pas la liberté.

—–

1. Shoshana Zuboff, « Big other : surveillance capitalism and the prospects of an information civilization », Journal of Information Technology, 30, 2015, p. 81.

2. Le 6 octobre 2015, la Cour de justice de l’Union européenne invalide l’accord Safe Harbor. La cour considère que les États-Unis n’offrent pas un niveau de protection adéquat aux données personnelles transférées et que les états membres peuvent vérifier si les transferts de données personnelles entre cet état et les États-Unis respectent les exigences de la directive européenne sur la protection des données personnelles.

3. Référence aux travaux de A. O. Hirschman sur la manière de gérer un mécontentement auprès d’une entreprise : faire défection (exit), ou prendre la parole (voice). La loyauté ayant son poids dans l’une ou l’autre décision.




Libertés numériques : un guide Framabook pour nos vies numériques !

Notre Framatophe a préparé un manuel de l’Internet à l’intention des Dupuis-Morizeau, cette sympathique famille de français moyens que nous chahutons chouchoutons à longueur d’année. Ce n’est surtout pas un livre « pour les nuls » (ça va couper, chérie) mais un bouquin pour ne plus surfer idiot.

Tiens, même nous qu’on est des geeks, on a appris des trucs.

Comme tous les Framabook, le livre numérique se télécharge librement et gratuitement, et sa version papier peut s’acheter facilement !

Sauf que ce guide pratique a un avantage de plus : celui d’être disponible ici sous forme de documentation, une documentation que vous pouvez améliorer en allant sur ce git.

Pour mieux comprendre comment tout ceci a été conçu, allons papoter avec son auteur, Christophe Masutti, aussi connu sous le sobriquet de Framatophe !

 

Internet pour les quarks : l’interview

Framatophe, on va se tutoyer, hein… Peux-tu te présenter en expliquant tes diverses activités au sein de Framasoft ?

Je suis arrivé dans l’aventure Framasoft à l’occasion d’un livre, la biographie de Richard Stallman retravaillée avec lui-même. Comme cela m’avait pas mal occupé, et comme j’ai quelques compétences en la matière, j’ai d’abord travaillé sur le projet Framabook. Petit à petit, les membres de Framasoft sont devenus des amis, j’ai intégré le conseil d’administration et je crois bien que c’est de pire en pire, avec toutes ces nouvelles idées révolutionnaires (dégoogliser Internet, il fallait être gonflé, pour laisser passer cela, non?), j’ai une deuxième vie, quoi… De manière plus pratique, cette année, je suis surtout occupé par la co-présidence de Framasoft, le comité ressources humaines, les partenariats/stratégie, le projet Framabook, le projet Framalibre, et puis partout où je peux être utile, comme les autres Framasoftiens, donc.

Tu nous présentes un manuel pour les Dupuis Morizeau… C’est encore un de ces trucs « pour les nuls » où on va se sentir minables si on fait les choses pas bien ?

Vous aurez remarqué, dans ma présentation ci-dessus, que je ne mets en avant aucune compétence technique en matière d’informatique. J’en ai un petit peu, certes, comme ceux qui comme moi ont depuis plus de trente ans un ordinateur entre les mains (la « vraie » génération Y), mais ce n’est pas du tout pour cela que je m’implique dans le Libre. Dès lors, en ouvrant cet ouvrage, n’ayez surtout pas peur d’un quelconque jugement.

C’est Madame Michu qui faisait office de canard boiteux, la sempiternelle décalée, incapable d’envoyer correctement un courriel, alors que finalement on peut bien vivre sans cela. Pire encore, Madame Michu renvoyait comme en miroir la suffisance des jeunes geeks, eux-mêmes caricaturés à l’extrême, symboles puérils d’une jeunesse qui finalement n’existe même pas.

Nous sommes divers. Nous utilisons nos terminaux, nos ordinateurs, nos téléphones portables comme nous l’avons appris, ou pas. Pourtant, pour bien des gens, ces machines restent des boîtes noires. C’est le cas des Dupuis-Morizeau, une famille imaginaire que nous citons souvent à Framasoft. Elle correspond, je crois, assez bien à une réalité : des personnes qui utilisent les réseaux et les outils numériques, souvent même avec une certaine efficacité, mais qui ne sont pas autonomes, dépendent des services des grands silos numériques du web, et sont démunis face à tout ce contexte anxiogène de la surveillance, des verrous numériques, des usages irrespectueux des données personnelles… C’est à eux que s’adresse cet ouvrage, dans l’intention à la fois de dresser un petit inventaire de pratiques numériques mais aussi d’expliquer les bonnes raisons de les mettre en œuvre, en particulier en utilisant des logiciels libres.

Est-ce que tu as écrit/dirigé ce manuel parce que tu es un Dupuis-Morizeau ? Parce que tu l’as été ? Parce que tu les côtoies ?

Lorsque vous interrogez autour de vous tous ces Dupuis-Morizeau, il ne fait aucun doute que, au moins depuis l’Affaire Snowden, une prise de conscience a eu lieu. Mais comment agir concrètement ? J’ai tenté plusieurs approches. La pire, c’est lorsque j’ai moi-même découvert les logiciels libres. J’avais beau saouler littéralement mon entourage pour l’utilisation de GNU/Linux ou n’importe quel logiciel libre « à la place de… », l’effet produit, était parfois tout à l’inverse de celui souhaité. Pourquoi ? parce que changer les pratiques uniquement en vertu de grandes idées, qu’elles soient libristes ou non, n’est jamais productif.

Changer des pratiques est d’abord un processus créatif : il peut être motivé, certes, mais il ne faut pas perdre de vue qu’il est toujours vécu de manière individuelle. Il ne vaut donc que s’il correspond à un mouvement collectif auquel l’individu adhère parce qu’il a une raison de le faire et de s’inventer des moyens de le rendre acceptable. Si vous voulez que la population laisse tomber le « tout voiture » au profit du vélo, il faut non seulement faire valoir les avantages écologiques et en matière de santé, mais aussi structurer le changement en créant des pistes cyclables en quantité et proposer aux habitants de s’approprier l’espace collectif autour du vélo ; bref, un aménagement urbain rien qu’à eux, ces futurs cyclistes qui se reconnaîtront alors en tant que tels.

En matière de numérique, c’est un peu la même chose. Nous avons les idées, nous avons l’effet structurel : les logiciels libres existent, il y a des annuaires (Framalibre !), nous avons même d’excellentes raisons collectives d’adopter le logiciel libre (cf. l’affaire Snowden et toutes les questions liées). Ce qui manque, c’est la chaîne qui permet aux utilisateurs de s’approprier les usages. Pour cela, une des méthodes pourrait consister à ouvrir ces boites noires que représentent les machines informatiques, vulgariser les principes, et faire le lien avec certains logiciels libres emblématiques. De cette manière, on accompagne l’utilisateur à la fois dans la connaissance technique, avec un bagage minimaliste, dans la stratégie qu’il va devoir lui-même mettre en œuvre pour répondre à son besoin (connaître les formats de fichiers, choisir les bons logiciels, sécuriser ses échanges, etc.) et adopter de nouvelles pratiques en fonction de ce besoin.

Bon mais concrètement, qu’est-ce que je vais trouver dans cet ouvrage ? Des grandes théories ? Des conseils pratiques ? De la vulgarisation ?

Un peu de tout cela oui. Et en même temps cet ouvrage est conçu comme un temps de respiration. Installer, configurer, sauvegarder, souscrire, télécharger, surfer, cliquer ici, cliquer là, pourquoi, comment… on s’arrête. On respire. Ce livre, c’est un compagnon, un guide. Ce n’est pas vraiment un manuel dans lequel on va trouver des recettes toutes faites. Il donne des exemples concrets de ce que font certains logiciels mais il explique d’abord pourquoi il est intéressant de les utiliser. Il explique de quoi est composée une URL avant de montrer quelle extension de Firefox il serait bon d’installer.

Il y a donc clairement des partis pris. Les spécialistes de logiciels libres trouveront très certainement beaucoup de choses à redire au sujet du choix des logiciels mentionnés. Ce n’est pas à eux que je m’adresse : quand j’ai lu sur un forum qu’il est « simple de configurer Thunderbird pour qu’il se connecte en IMAP sur un serveur en utilisant une sécurité SSL sur le port 993 », je me suis dit qu’il était peut-être intéressant, avant de formuler cette phrase, d’expliquer ce qu’est un protocole de communication et quelques éléments autour du chiffrement. On ne peut pas libérer les pratiques numériques en laissant les utilisateurs dans l’ignorance des principes généraux de l’environnement technique dans lequel ils évoluent. Cette ignorance est justement l’un des ressorts stratégiques des monopoles de logiciels et de services (elle fait aussi le beurre de certains « experts en décisions SI »).

Ce compagnon est aussi le fruit de mes propres démarches personnelles. Comme beaucoup d’autres, j’ai commencé par bidouiller en Basic sur des machines dotées de 16Ko de RAM pour les plus accessibles à un porte-monnaie modeste, et un peu plus tard, alors que le Minitel ne me suffisait pas, j’ai cherché à établir des connexions avec des modems RTC. Aujourd’hui, si la synchronisation de ses contacts entre un service Google et son smartphone ne fonctionne pas, on trouve cela complètement anormal… Mais qui serait nostalgique de l’époque maudite où il fallait se farcir les spécifications techniques de ses appareils (selon les marques) pour pouvoir envoyer un simple courriel ? Il n’en demeure pas moins que si nous sommes démunis en pareils cas, ce n’est pas parce que nous ne cherchons pas à comprendre comment fonctionne tel programme, mais parce que les mauvaises pratiques induisent des faiblesses. Voici un exemple très courant. Monsieur Dupuis-Morizeau n’arrive plus à accéder au webmail de sa boite Machin, il change pour une boite Truc qui lui offre la possibilité de télécharger ses messages depuis la boite Machin. Ayant perdu le second mot de passe, lorsqu’il revient à la première boite il ne comprend plus où sont ses messages. Perplexité, frustrations, nervosité… ce sont ces états que ce guide souhaite aussi changer en reconstruisant une forme d’autonomie numérique.

Tu as mis des blagues ou ton côté universitaire a repris le dessus ?

Alors, d’abord, très nombreux sont les universitaires dotés d’un sens de l’humour et avec un esprit désopilant. Qu’est-ce que c’est que cette caricature ? Tiens la dernière entendue : « que dit un canard si on l’atomise ? » : « quark, quark ».

Donc là normalement vous êtes morts de rire, non ? (si vous savez qui en est l’auteur, je suis preneur de l’info)

Quant à moi, comme on peut le voir je suis très mauvais en la matière et on me dit souvent que ma blague favorite est trop longue (et elle aussi a été dessinée, d’ailleurs, vous voyez ce qu’il nous faut subir dans cette asso, NDLR).

Alors forcément personne ne pourra se tordre de rire à la lecture de l’ouvrage… Ah si, peut-être en introduction, en note de bas de page, un trait d’humour noir, histoire de faire espérer le lecteur pour qu’il tourne la page suivante.

Il n’ y avait pas déjà des ouvrages sous licence libre qui faisaient le job ? Qui auraient pu être mis à jour sans tout réécrire ?

Il y a un livre, écrit récemment par Tristan Nitot, intitulé Surveillance://. Il n’est pas sous licence libre, c’est son seul défaut. Dans cet ouvrage, Tristan va même jusqu’à expliquer comment paramétrer un service de Google pour (tenter de) sauvegarder un peu d’intimité numérique. C’est en partie cette section de son livre qui m’a inspiré : il est bon d’expliquer les enjeux du numérique mais il faut bien, à un moment donné, fournir les clés utiles aux lecteurs pour mettre au mieux à profit les sages conseils promulgués prodigués.

Tu avais lancé ce projet d’écriture comme un projet collectif, mais ça n’avait pas vraiment pris… Tu peux expliquer pourquoi, à ton avis ? C’est plus simple d’être dans son coin ? Je croyais que chez Frama on était les champions du travail collectif ? 🙂

Oui, c’est vrai. Le projet date d’il y a presque trois ans. D’ailleurs à deux reprises je reprends des petites parties de ce que certains avaient déjà écrit. C’est marginal, mais en tout cas ils sont crédités. Le projet collectif n’avait pas pris essentiellement pour deux raisons :

  1. un manque de temps de ma part pour agréger une communauté autour du projet (et on sait combien cela peut être chronophage),
  2. il est difficile de faire émerger collectivement une adhésion totale au fil directeur d’un ouvrage qui se veut « grand public », car il y a autant de conceptions du lectorat et de la vulgarisation qu’il y a de contributeurs.

Le projet a traîné… Puis la réfection de Framalibre m’a pris pas mal de temps, en plus du reste. C’est lorsque j’ai compris ce qu’il manquait à une liste de logiciels libres que je me suis mis à écrire cet ouvrage, et le premier jet a duré 4 semaines. C’était mûr, même si ce n’est pas parfait, loin de là.

Comment se sont passées les relations avec ton éditeur ? Pas trop d’engueulades ;p ? En vrai, on peut dire que tu as eu des scrupules à proposer cet ouvrage au groupe Framabook ?

Oui, c’est juste. Comme je suis très impliqué dans la collection Framabook, je ne voulais pas « imposer » ma prose. Par ailleurs, n’étant pas sûr de l’intérêt réel, je voulais d’abord proposer l’ouvrage en mode restreint, auto-édité. Mais des lecteurs framasoftiens m’ont persuadé du contraire, alors…

Ce livre, c’est un point final ou un début ? Que faire dans un, deux ou cinq ans, si des informations deviennent obsolètes ?

C’est un début. Clairement. D’une part il va falloir surveiller l’obsolescence des logiciels mentionnés (même si la plupart sont des logiciels particulièrement connus depuis longtemps et qui ont fait leurs preuves). Mais les enjeux et le contexte changent aussi : les raisons qui font qu’il est utile (mais pas indispensable) d’utiliser un client de courriel local (voir chapitre 3) ne seront peut-être plus valables d’ici deux ans. Cet ouvrage devra donc bénéficier de versions améliorées. D’autre part, un ou deux chapitres peuvent encore être écrits.

L’autre ambition de l’ouvrage est de figurer sous une forme de documentation (ici) de manière à être accessible le plus rapidement possible. C’est aussi pour cela qu’il sera important de veiller aux mises à jour.

Et si je pense être capable de l’améliorer, je fais quoi, je t’envoie un courriel ?

Ce serait super ! L’aide est toujours bienvenue. Pour cela le mieux est encore d’utiliser mon dépôt sur Framagit qui génère automatiquement la version « documentation » citée ci-dessus. Ou bien vous pouvez ouvrir un simple commentaire (dans les « issues » du projet) ou même carrément pousser des propositions de modification avec Git. Oui, je sais que cette méthode est loin d’être tout public, mais là je n’invite pas les Dupuis-Morizeau, hein ? Néanmoins si cela ne convient toujours pas, un courriel fonctionne aussi…

Tu as choisi quoi, comme licence ?

La licence Art Libre. C’est une licence Copyleft qui me semble plus en phase avec la production d’œuvres écrites.

Et comme toujours sur le Framablog, tu as le mot de la fin…

Un mot… Ce sera l’expression « autonomie numérique », que je définirais ainsi : la capacité d’un individu à utiliser des dispositifs informatiques de production et de traitement de l’information sans contrôle extérieur et tout en expérimentant son intimité dont lui seul fixe les limites d’un point de vue technique et relationnel. Respire, respire !

Pour aller plus loin :




Chroniques du Léviathan

La revue de presse de Jonas@framasoft, qui paraît quand il a le temps

 

« Un cerveau de substitution »

Dans une interview sur les chances qu’a Qwant de rivaliser avec le moteur de recherche de Google, Éric Léandri, co-fondateur de Qwant, déclare :

Vous devez penser à l’Internet non seulement comme un moyen de communication, mais de plus en plus comme à un cerveau de substitution. Les choses qui auraient été gardées dans les limites impénétrables de votre propre esprit, ou dans le sanctuaire de votre maison, sont maintenant envoyées sur des serveurs pour que le monde ou quelques entreprises les voient. Tout ce que nous faisons est de plus en plus stocké et peut être récupéré sur demande.

 

« Votre historique de navigation suffit à dévoiler votre identité »

D’après un article de The Atlantic, une équipe de chercheurs de Stanford et Princeton a développé un système qui peut connecter votre profil Twitter avec votre nom et votre identité, en examinant seulement votre historique de recherche.

Cela signifie que conserver la confidentialité tout en utilisant Twitter est impossible sans renoncer à ce qui constitue le marqueur du réseau social : sa nature publique et gratuite pour tous.

L’article explique comment l’expérience a été menée et mentionne au passage quelles parades on peut éventuellement utiliser : Privacy Badger et Ghostery
Mais voici la fin de l’article :

Le conseil de sagesse qu’on nous donne généralement est qu’il faut être prudent avec ce que l’on partage. Mais ici, nous montrons que vous pouvez être dés-anonymisé simplement en naviguant et en suivant des comptes, même si vous ne partagez rien.

 

 « Une fois vos informations stockées, on peut les modifier et en faire ce qu’on veut »

Dans l’hebdomadaire italien La Repubblica, la journaliste Stefania Maurizi interviewe le lanceur d’alerte William Binney. Celui-ci évoque entre autres un programme pour la NSA nommé ThinThread, qu’il avait développé avec son équipe et qui permettait de cibler avec précision la surveillance en visant les activités délictueuses, tout en laissant de côté les données privées.

Quelques extraits de la conversation :

Stefania Maurizi — Après le 11 septembre, la NSA a détourné votre système, supprimé les dispositifs protégeant la vie privée et a utilisé ThinThread pour espionner la population tout entière ?
William Binney — La première chose qu’ils ont faite a été le programme « Stellar Wind » qui visait l’espionnage domestique (…) ils ont supprimé trois fonctionnalités de ThinThread dont l’une était la protection de la vie privée. Au lieu de prendre seulement les données pertinentes ou celles qui étaient très probablement pertinentes, ils ont absolument tout pris et ils ont étendu la surveillance à l’échelle de la planète.
SM — Nous avons constaté dans les seize dernière années que la surveillance de la NSA avait échoué à prévenir des attaques terroristes. Pensez-vous que ce n’est qu’une question de temps avant que la NSA ne soit capable de le faire effectivement, ou bien qu’ils n’en auront jamais les capacités ?
WB — Je pense qu’ils sont condamnés à l’échec, parce qu’ils sont enfermés dans la conviction qu’ils doivent tout collecter (…) Ils sont très bons pour collecter des données, mais ils n’ont fait aucun progrès pour essayer de savoir ce qu’ils peuvent avoir dans les données qu’ils ont collectées.[…]
Ce genre de pouvoir ne devrait pas exister pour aucun gouvernement, parce qu’il crée vraiment un état totalitaire. C’est comme la Stasi dopée aux amphétamines ; au lieu de détenir des dossiers avec des documents sur tout le monde, ils archivent tout ce que vous faites de façon électronique, si bien que le jeu d’informations est beaucoup plus complet, à jour et exploitable, et ils peuvent le manipuler, et faire de vous tout ce qu’ils veulent […]
SM — Donc le problème n’est pas seulement la collecte, mais aussi la manipulation des données ?
WB — Oui. une fois qu’on a stocké les informations, on peut les modifier et en faire ce que l’on veut.

Léviathan dans la fresque « Le Jugement dernier » de Giacomo Rossignolo – CC-BY-SA




Next INpact : bilan après un an de respect pour nos données

Il y a un an, le site d’informations sur le numérique NextINpact publiait une annonce à contre-courant : davantage de respect pour les données des internautes qui le visitent, en dé-tricotant les mailles du profilage publicitaire sur son site.

À l’heure où les éditeurs de contenus cherchent à « optimiser » leurs revenus par une publicité de plus en plus intrusive, et où les publicitaires cherchent à maximiser le profilage et l’invisibilisation de la publicité, c’est une démarche pour le moins originale que de se dégoogliser de l’analytics en passant au logiciel libre Piwik… (si vous ne comprenez pas cette phrase, promis, juré, on l’explique plus loin !)

Quel modèle économique pour un site qui veut à la fois payer les salaires de ses journalistes, collaborateurs, administratifs tout en affirmant ses valeurs et respectant les données et les vies numériques de son lectorat ?

Un an plus tard, nous sautons sur l’occasion d’interroger l’équipe de Next INpact sur le bilan tiré de cette démarche, et les perspectives qui l’accompagnent.

Cliquez pour aller lire Next INpact

Bonjour NextINpact ! Pouvez-vous rapidement nous présenter votre équipe et votre site ?

Bonjour Framasoft ! Next INpact est un site dédié à l’informatique et au numérique qui existe depuis plus de 15 ans. Il a été créé par Christophe Neau sous le nom d’INpact Hardware en 2000. Il s’agissait alors pour une bande de passionnés de nouvelles technologies et de matériel informatique de partager les informations qu’ils glanaient au quotidien. Et même des vidéos rigolotes à travers nos fameux LIDD diffusés chaque dimanche, et depuis référencés sur un site.

Devant le succès du projet une société a été créée en 2003, le site est alors devenu PC INpact, puis Next INpact en 2014. Une manière pour nous de prendre en compte l’évolution majeure du secteur qui infuse notre quotidien bien au-delà du simple ordinateur qui trône dans le salon familial, le bureau ou la chambre des enfants. Christophe est toujours le gérant majoritaire de la société. Il détient 76 % des parts. Next INpact est donc l’un des rares sites de presse indépendants qui traite du numérique en France. Nous proposons aussi une offre d’abonnement Premium depuis 2009.

Notre vision du numérique est assez large, et ce depuis des années. Si nous nous sommes rapidement ouverts aux questions logicielles et aux problématiques d’hégémonies, c’est notre analyse de l’environnement juridique qui a fait notre différence lors de cette décennie. DADVSI, LCEN, HADOPI sont autant d’acronymes qui ont rythmé les débats parlementaires tout en secouant le secteur. Tout comme l’ont fait des lois plus récentes sur le renseignement par exemple. Nous avons toujours eu à cœur de suivre ces débats de près, de les analyser sur le fond, et de donner à chacun les clés lui permettant de se faire sa propre idée.

Next INpact illustrant un article sur la loi renseignement.
CC-BY-SA Digitale Gesellschaft

Nous avons toujours eu une démarche journalistique. La société a été créée comme SARL de presse dès 2003, nous avons toujours appliqué la convention collective du secteur et notre rédaction compte une dizaine de journalistes, dont une bonne partie est là depuis le début du projet. C’est notamment le cas de Marc Rees, Vincent Hermann ou David Legrand qui sont là depuis plus de 10 ans. Mais l’équipe se compose au total d’une quinzaine de personnes (développeurs, graphistes, direction, etc.) Nous sommes reconnus comme site de presse en ligne depuis quelques années maintenant, et comme titre consacré pour partie à l’Information Politique et Générale depuis l’année dernière. Nous sommes aussi membres du SPIIL (Syndicat de la Presse Indépendante d’Information en Ligne).

L’autre aspect important du projet est sa communauté. Nous sommes nés sur un slogan : « Si tu ne sais pas, demande. Si tu sais, partage ». Notre communauté a toujours été importante pour nous et nous avons toujours placé le respect de nos lecteurs assez haut dans l’échelle de nos valeurs. Ce qui explique nombre de nos choix à travers le temps.

C’est aussi grâce à notre communauté que nous continuons d’exister car, plus que notre audience, elle constitue aussi notre base d’abonnés et de soutien qui permettent d’assurer notre financement et notre rentabilité. Car oui, nous sommes rentables (à deux exercices près depuis 2003).

Commençons par la technique : il y a un an, vous avez choisi de passer de Google Analytics (outil d’analyse du comportement des internautes sur votre site, fourni par Google) à Piwik (logiciel libre permettant des analyses similaires, que nous utilisons aussi chez Framasoft)… Quel travail cela vous a-t-il demandé et quelles conséquences voyez-vous un an après ?

Historiquement nous utilisions Google Analytics pour une raison simple : l’outil est complet, gratuit et plutôt efficace. Mais il nous faut assurer une certaine cohérence. Nous ne pouvons pas avoir un regard critique sur le tracking de masse opéré par le secteur publicitaire et les GAFA sans regarder ce qu’il se passe à notre propre échelle. Analytics, comme d’autres scripts du genre, est ainsi une solution permettant à des sociétés de suivre les internautes de manière presque constante avec l’aide des sites. C’est d’ailleurs le manque de remise en question des éditeurs sur ces problématiques qui incite les lecteurs à utiliser des bloqueurs en tous genres, et les navigateurs à renforcer la mise en place de leurs solutions « anti-tracking » (comme le fait Mozilla depuis quelque temps maintenant).

Nous avons donc procédé en plusieurs étapes ces dernières années afin d’en arriver à la situation actuelle. Nous avons tout d’abord permis à nos abonnés de se passer de l’ensemble de ce qui pouvait être assimilé à des trackers sur nos pages. Outre la publicité, cela comprenait les scripts Analytics et de calcul des partages sur les réseaux sociaux. Une partie de ces options était ouverte à tous nos membres. Nous avons ensuite pris en compte le signal Do Not Track pour cette désactivation afin que même ceux qui ne disposent pas d’un compte puisse en profiter.

Mais soyons honnêtes. Pour un éditeur, disposer de statistiques fiables est important. Cela nous permet de comprendre comment les lecteurs utilisent le site, quels sont les contenus les plus lus, depuis quelles sources, etc. Ici, l’analyse ne se fait pas au niveau de chaque lecteur mais bien sur une tendance globale et sur des données anonymes. Pendant longtemps, nous avons été sans vraiment de solution alternative à Analytics. Lors de nos échanges avec la CNIL sur la question des cookies, nous avons eu l’occasion de découvrir le projet, et de le tester. Une fois qu’il nous a paru suffisamment mature, nous l’avons mis en place.

Les conseils de la CNIL qui donnent faim.

Nous l’avons d’ailleurs fait en suivant les recommandations de la CNIL qui impose notamment de ne pas récupérer les IP entières. Cela n’empêche pourtant pas des listes comme Easy Privacy de bloquer le script, ce qui ne nous permet pas de connaître le niveau de notre audience totale. Preuve que les engagements en matière de respect de la vie privée ne sont pas toujours reconnus.

Il n’y avait pas de défi technique particulier, mais il ne faut pas s’attendre à voir une majorité d’éditeurs l’utiliser demain. Ne serait-ce que pour les interactions qui existent entre Analytics et des solutions comme Adwords/Adsense ou des fonctionnalités très avancées qui ne sont pas encore en place dans un outil comme Piwik.

Au final, le problème nous semble plutôt se situer du côté du fait que Google peut utiliser les données d’Analytics pour les recouper. La CNIL devrait imposer que ce ne soit pas le cas à tout dispositif d’analyse des statistiques. Car si l’on focalise sur Analytics, nombreux sont les autres outils du genre qui font la même chose à moindre échelle.

Question technique (parce qu’il y en a un chez nous qui n’est content que quand ça parle de technique) : j’imagine que pour encaisser un trafic de la taille du vôtre, il a fallu configurer Piwik aux petits oignons. Nous c’est le plugin QueuedTracking qui nous a sauvé la mise. Et vous ? Vous auriez une petite recette magique à partager ?

Pierre-Alain (notre CTO) a un mantra : REDIS POWA !

Vous êtes allés plus loin en activant le HTTPS (connexion sécurisé sur votre site) et la prise en compte de DoNotTrack (option du navigateur pour demander aux sites de ne pas traquer nos données). Est-ce un choix évident pour un éditeur de contenus ? Un an après, quelles conclusions pouvez-vous en tirer ?

Là encore, il s’agissait d’une réflexion sur le long terme et d’une volonté de faire mieux pour le lecteur, tout en étant cohérents avec nos propres analyses. Pour HTTPS, notre premier souci était de sécuriser la phase de connexion à nos sites. En effet, encore maintenant lorsque vous entrez un mot de passe dans un formulaire de connexion, celui-ci est souvent transmis en clair dans une requête HTTP. Si vous êtes chez vous sur un réseau filaire, ce n’est pas tellement un souci. Mais dans un environnement Wi-Fi, potentiellement public (et donc non chiffré, en entreprise, etc.), cela peut être un danger, que les navigateurs commencent seulement à mettre en avant de manière assez discrète.

Lors de la préparation de la mise en place de la v6 du site début 2014, nous avons donc séparé notre gestionnaire de compte et d’abonnement qui est passé intégralement en HTTPS. Ce choix là ne devrait pas avoir à être évident ou non, tous les sites qui proposent une connexion devraient le faire avec HTTPS d’activé, et tous les navigateurs devraient afficher une alerte importante lorsque ce n’est pas le cas.

D’ailleurs, pour ça, il y a l’extension HTTPS Everywhere ;)

Ensuite nous avons migré nos abonnés Premium. Pourquoi eux seulement ? En raison de la publicité. Comme nombre d’éditeurs, notre régie ne supportait pas HTTPS, et l’activer pour tous les utilisateurs revenait à se couper de ces revenus, et donc à mettre la clef sous la porte. Cela nous permettait aussi de tester l’impact sur notre site (performances, mixed content, etc.) sur une partie de l’audience seulement. Nous avons donc fait au mieux, et même développé notre propre solution de distribution de la publicité que nous testons depuis quelques mois. Entre temps, notre prestataire a activé un support d’HTTPS que nous avons pu généraliser à la fin de l’année dernière.

Concernant Do Not Track, cela découle aussi de nos échanges avec la CNIL qui est active sur ce terrain même si ce n’est pas toujours très visible. Cela nous permet de respecter une volonté exprimée de l’utilisateur. On ne peut d’ailleurs que regretter que le standard ne soit pas plus complet et finalisé, afin qu’il puisse être réellement exploitable. Avec la mise en place du règlement européen sur les données, ce serait pourtant un formidable outil. De notre côté, nous avons la volonté de l’étendre ne serait-ce que pour bloquer certains modules intégrés parfois à nos contenus sans action de l’utilisateur (tweets, vidéos, etc.). Mais cela nous demande une modification technique un peu lourde, il faudra donc attendre encore un peu.

Enfin, vous n’avez pas aboli la publicité sur votre site, mais l’avez radicalement modifiée afin d’avoir des pratiques responsables. C’est quoi, selon vous, une publicité numérique responsable, et est-ce que les annonceurs publicitaires jouent le jeu ou le boudent ?

C’est une bonne question. Il y a sans doute autant de définitions de la publicité responsable qu’il y a d’acteurs qui proposent des solutions publicitaires. On a d’ailleurs déjà vu certains acteurs vanter leur nouvelle trouvaille vidéo comme un meilleur respect de l’internaute malgré une lecture automatique. Un comble, non ?

De notre côté nous avons constamment renforcé notre attention sur ce sujet, quitte à parfois nous mettre des bâtons dans les roues économiquement.

La responsabilité au niveau publicitaire se situe selon nous à deux niveaux : au niveau des formats mais aussi de l’image du site et de sa rédaction.

Ainsi, avec le temps nous avons banni de nombreuses solutions : Flash, interstitiels, vidéos, campagnes avec du son, etc. Plus récemment, notre engagement a été simple : des images fixes, pas de trackers. Si sur ce dernier point nous sommes en train de mettre la dernière touche, vous pouvez aller sur Next INpact et regarder le compteur, même sans DNT vous serez entre 0 et 5 trackers avec presque aucun cookie inutile. Tentez de faire la même chose avec le site d’un grand média national. Vous aurez de quoi vous faire peur tant ils ne maîtrisent plus ce qu’ils diffusent sur leurs sites.

Le second point est celui de l’éthique. Il y a quelques années, des marques sont venues nous voir pour nous demander de diffuser des publicités dans des formats qui ressemblent à des articles, vantant leur produit. Nous avons toujours refusé. L’histoire nous a montré depuis que cela n’a pas été le choix de tous, et que la frontière entre l’information et la publicité est de plus en plus poreuse, sans toujours une très grande clarté. Mais quand bien même cela serait indiqué, l’internaute peut être trompé par ce genre de dispositif. Nous nous y refusons donc malgré leur côté diablement lucratif.

Lorsque nous avons compris que ce choix aurait un impact sur nos finances en 2013, nous avons fait un pari : celui de renforcer la qualité de notre offre éditoriale et de limiter l’accès à certains de nos contenus à nos seuls abonnés Premium pendant une durée d’un mois. Aujourd’hui, nous comptons plus de 6500 abonnés (contre moins de 1000 au début de l’aventure).

Il ne faut pas oublier que la course à la publicité est aussi la course à l’audience.

On parle depuis quelque temps des « fakes news » et autre « clickbait ». Ils ne sont que le résultat de ça. La plupart des articles diffusés aujourd’hui sur des sites ne sont pas le résultat d’un choix éditorial animé par la volonté de faire connaître une information. Seulement la réponse à une question simple : « avec quels titres vais-je pouvoir faire venir des millions d’internautes sur mon site aujourd’hui, ne serait-ce que quelques secondes ? »

C’est aussi pour cela que l’on assiste à une baisse de qualité globale dans le contenu des sites qui misent uniquement sur l’accès gratuit, alors que des sites comme Arrêt sur images, Les Jours ou même Mediapart rencontrent un franc succès.

La démarche de l’abonnement est différente. Vous devez convaincre votre lecteur de votre intérêt, de l’utilité de votre démarche. Pour cela, il faut produire du contenu de fond (fut-il en accès libre, ce qui est le cas de nos analyses sur les élections ou la question du chiffrement par exemple).

« À chaque partage d’un article de Fake News, naît un chaton plus intelligent que vous. »

Quelle a été la réaction de votre lectorat à une telle annonce ? Cela a-t-il évolué en un an ?

Notre lectorat accueille forcément bien ce genre de nouvelles. Pour nous, le défi c’est de réussir à satisfaire notre communauté et à suivre notre voie, tout en gardant un modèle économique viable. Ce n’est pas toujours simple. Car aller rencontrer des annonceurs en leur proposant de simples images alors que d’autres proposent des habillages vidéo vendus aux enchères avec un ciblage parfois très avancé, ce n’est forcément pas à notre avantage.

Mais certains annonceurs sont aussi sensibles à ces questions. L’IAB est d’ailleurs l’un des acteurs qui avance le plus dans le même sens que nous. Malheureusement, ils sont largement en avance sur les mentalités de leurs membres et du secteur.

Il faut dire que la publicité n’est pas la seule source de revenu et de soutien pour votre site… Vous pouvez nous décrire votre modèle économique ?

Comme évoqué précédemment, nous proposons un abonnement Premium depuis 2009. Celui-ci représente désormais un quart de notre chiffre d’affaires. Le reste est partagé entre la publicité et nos autres services (bons plans et comparateurs que nous proposons en y infusant nos valeurs).

Nous ne demandons, ni ne touchons aucune aide directe de l’état ou de fonds privés (comme ceux de Google, de la fondation Gates, etc.)

La-question-qui-pique : si certains de vos articles sont financés par la communauté, via des abonnements, est-ce qu’il ne vous parait pas logique de les reverser à la communauté, par le biais de licences libres ?

La question est tout à fait légitime, au contraire. Pour autant, il ne faut pas oublier que les articles financés par les abonnés ne le sont pas par la communauté au sens large, la question d’une licence libre ou non n’est donc pas lié à notre modèle. Nous avons d’ailleurs fait le choix d’opter pour un paywall qui n’est pas permanent puisqu’au bout d’un mois maximum, tous nos articles sont en accès libre. Nous faisons aussi le choix de laisser dès le départ certains articles en accès libre lorsqu’ils nous paraissent d’intérêt public.

Concernant le choix d’une licence libre, c’est une question qui s’est posée un temps en interne, mais qui n’a jamais été vraiment tranchée. Notamment parce que notre matière est principalement de l’actualité chaude, qui ne fait que rarement l’objet de reprises globales. Nous avons néanmoins une pratique assez ouverte sur ce point. Outre le droit de courte citation propre à la presse, nous ne refusons jamais une reprise non commerciale, ou dans des manuels scolaires, etc.

Mais avec la montée en puissance des dossiers au long court, comme celui qui est actuellement en diffusion sur la question du chiffrement, la question s’est à nouveau posée à nous. Nous tenterons d’y apporter une réponse, notamment à travers certains de nos projets.

Voyez, Next INpact, les yeux de ces libristes remplis d’espoir à l’idée que certains de vos articles passent sous licence libre ;)

Ces choix que vous avez appliqués se veulent respectueux de la vie numérique des internautes… Mais vous allez plus loin en souhaitant que d’autres sites web / éditeurs de contenus vous rejoignent et en proposant de les accompagner dans cette démarche. Cela s’est fait ? Si je fais partie de (au hasard) Madmoizelle ou de ArrêtsSurImages, comment je peux faire pour suivre votre exemple ?

Nous avons une approche assez ouverte de nos différentes démarches. C’est notamment le sens de notre implication au SPIIL ou à des conférences dans le secteur de la presse. À notre niveau, nous travaillons essentiellement sur des propositions techniques, comme notre solution de distribution de la publicité, ou notre projet d’abonnement unifié La Presse Libre. C’est aussi la mise en place de ces solutions que nos abonnés soutiennent puisque nous finançons tout en propre. Ainsi, les éditeurs qui veulent nous rejoindre dans notre démarche peuvent simplement venir nous rencontrer au SPIIL ou nous contacter.

Entre les bloqueurs de pubs (de type Ublock Origin), les anti-bloqueurs de pub qui fleurissent sur les sites web, et les anti-anti-bloqueurs de pubs… On a l’impression d’une course à l’armement dans un dialogue de sourds… Quelles évolutions voyez-vous dans ce domaine pour sortir de ce cercle vicieux ?

Nous avons du mal à être optimiste sur ce terrain. Déjà parce que les éditeurs sont encore relativement sourds sur ces questions et ont du mal à comprendre qu’ils sont les principaux artisans de leur malheur. Certes des acteurs comme l’IAB évoluent dans leur position, mais pas leurs membres et les acteurs du marché publicitaire. Preuve en est, les éditeurs en sont encore à miser sur le blocage de l’accès à leur site, proposant le plus souvent comme alternative des pages avec des centaines de trackers et de cookies tiers.

De l’autre, ceux qui gèrent les listes de blocage ne font pas toujours preuve d’un grand discernement. Ainsi, un site comme Next INpact, malgré ses engagements en termes de vie privée et de gestion raisonnable de la publicité sera bloqué comme n’importe quel autre via EasyList FR ou Easy Privacy. Si chacun dit être à l’écoute de l’internaute, nous avons du mal à voir la possibilité d’une conciliation, qui ne se décidera de toutes façons pas à notre niveau.

Nous traitons de ces questions d’un point de vue éditorial, nous cherchons à évangéliser les différents acteurs, nous multiplions les initiatives qui permettent de faire émerger des modèles hors de la simple publicité. Nous tentons de jouer notre rôle à notre niveau, en espérant que chacun finira par faire de même.

Un an après, est-ce que vous avez envie de rétro-pédaler, de simplement continuer comme ça parce que ma foi c’est déjà bien, ou d’aller encore plus loin dans votre démarche (et si oui comment) ?

Rétro-pédaler, sûrement pas. Mais nous réfléchissons constamment à trouver des manières d’améliorer les choses. 😉

Le collectif pour soutenir et s’abonner à une presse indépendante.
(attention : « libre » fait ici référence à la liberté éditoriale, non aux licences libres)

En parallèle de cette évolution, vous avez voulu booster les sites web qui proposent de l’information sous abonnement avec le projet collectif La Presse Libre… C’est quoi, exactement ?

La Presse Libre est un projet sur lequel nous travaillons depuis plus de quatre ans maintenant. Il part d’un constat simple : le modèle de l’abonnement se généralise, mais il est souvent compliqué de sauter le pas, de trouver des sites qui proposent un tel modèle avec de l’information de qualité et aucun kiosque numérique n’existe pour les sites en ligne. Comme personne ne semblait décidé à le faire, et que nous ne voulions pas que cette absence d’initiative profite une fois de plus aux GAFA, nous avons décidé de créer notre propre plateforme.

Ainsi, vous pouvez vous abonner assez facilement à plusieurs sites de presse avec un seul paiement mensuel et une réduction. Avec un même budget vous pouvez donc soutenir plus de titres de presse. C’est sans engagement, vous pouvez ajouter ou retirer un site à tout moment et la grande majorité des revenus finance les éditeurs plutôt que la plateforme elle-même. Actuellement nous comptons six sites membres, mais nous espérons bien voir ce chiffre grossir cette année. Nous portons ce projet avec Arrêt sur images et Alternatives économiques avec qui nous avons créé un GIE afin de disposer d’une gestion collégiale.

Concrètement, si jamais on veut soutenir votre démarche, qu’est-ce qu’on peut faire ?

Abonnez-vous, surtout que l’on propose de superbes goodies ! Autrement, vous avez la possibilité de nous soutenir à travers le don via la plateforme J’aime l’info, qui est en partie défiscalisable en raison de notre statut de presse d’Information Politique et Générale.

La coutume sur le Framablog, c’est de vous laisser le mot de la fin…

TGEgbGliZXJ0w6kgdmFpbmNyYSAh

 

Pour aller plus loin




openSUSE, une distribution méconnue

À force de les rencontrer sur des événements libristes comme les RMLL et POSS, nous avons demandé aux ambassadeurs français d’openSUSE de nous parler de leur distribution GNU/Linux.

logo opensuseSalut ! Présentez-vous. Comment justifiez-vous votre existence ?

Nicolas : Je viens d’un monde pur Windows. Un jour j’ai dû monter un petit serveur web où je devais installer une version Linux de mon choix sans rien y connaître. J’ai trouvé un tuto openSUSE 10.3 expliquant comment installer un serveur Apache + PhP en deux clics avec Yast-HTTP et je suis tombé dedans. Ensuite j’ai voulu tester sur mon PC pour virer mon Windows XP LSD (si, si…). J’ai commencé en 2005 avec un dual boot pour terminer exclusivement sous openSUSE depuis 2008. J’ai pris part à la communauté, puis à la création de l’association loi 1901 en 2012 en tant que secrétaire. L’an dernier j’ai repris le flambeau en devenant président.

Formaliser une association pour la promotion d’openSUSE en France était une nécessité pour faciliter la présence des membres et ambassadeurs openSUSE aux salons. Ils étaient reconnus par le programme openSUSE international mais pas forcément légitimes vis-à-vis des organisateurs locaux. On a un système d’adhésion qui couvre le budget hébergement. Quant aux goodies en version française et les clés USB, on vend à prix coûtant pour autofinancer les rééditions. Une année on était en galère mais on a eu la chance d’avoir du sponsoring de SUSE France qui nous soutient quand ils le peuvent, que ce soit financièrement ou matériellement au travers de goodies, etc. C’est appréciable de reproduire dans l’hexagone la synergie entre la communauté opensource et l’entreprise.

Antoine : openSUSE est la première distribution que j’ai utilisée. Je l’ai découverte en 2008, dans un magazine Linux. Des amis à moi utilisaient Ubuntu et m’avait convaincu d’essayer mais je n’avais trouvé que ce magazine, avec un DVD d’openSUSE (10.3) à l’intérieur. J’ai accroché : le changement, le vert, le caméléon comme logo. Bref, je l’ai installée (dual-boot), cassée, réinstallée, recassée, etc. J’ai appris plein de trucs, notamment grâce au forum Alionet. J’ai depuis essayé d’autres distributions, « en dur » mais aussi dans des machines virtuelles. Au final, je reviens toujours vers openSUSE, parce que c’est là où je me sens le mieux.

J’ai commencé à écrire des news sur Alionet en 2014, après la mort de jluce, un des admins du site qui en écrivait plein. Je trouvais dommage de ne pas essayer de continuer ce qu’il avait commencé. J’écris des articles sur openSUSE, pour informer de l’actualité du projet ; parfois des tutos, notamment quand je vois plusieurs personnes ayant une même difficulté sur le forum ; et enfin, sur tout ce qui touche au libre en général.

Qu’est-ce qui différencie openSUSE des autres distros ?

À mon sens, c’est une distribution qui s’adresse aussi bien aux débutants qu’aux utilisateurs avancés (powerusers) avec un certain nombre de qualités :

  • La distribution répond aussi bien à des besoins de poste de travail, d’ordinateur portable ou encore de serveur (elle partage le même core SUSE Linux Entreprise Server). Je l’utilise sur mes propres serveurs qu’ils soient physiques ou virtualisés, mes stations de travail fixes ou portables. Quelle que soit l’utilisation, ce qu’appréciera l’utilisateur, c’est sa stabilité. D’ailleurs, il existe également des images ARM pour les Raspberry Pi, Pi2 et Pi3.
  • L’ensemble des environnements graphiques proposés ont le même degré de finition et d’intégration dans la distribution que ce soit sur l’ISO de base : KDE (défaut), GNOME (mon bureau par défaut), LXQt, XFCE mais aussi via les dépôts en ligne pour MATE ou Cinnamon ou encore Enlightenment.
  • L’outil d’administration Yast est un atout indéniable pour administrer la machine que ce soit les dépôts en ligne, l’ajout/suppression de logiciel, la gestion des services, des utilisateurs, etc. De nombreux modules sont disponibles et de nouveaux arrivent régulièrement pour suivre les évolutions technologiques comme Snapper pour gérer les instantanés (snapshots) du système de fichiers Btrfs ou encore celui pour gérer des conteneurs Dockers.
  • Pour les utilisateurs débutants il est possible d’installer via Yast un serveur web, FTP ou email en quelques clics. Idéal pour avoir une base fonctionnelle et ensuite « mettre les mains dedans ». D’ailleurs l’édition manuelle, n’invalide pas l’utilisation de YaST dans la majorité des cas.
  • Si l’utilisateur avancé ne veut pas utiliser Yast, il est tout à fait en droit d’éditer les fichiers de configurations manuellement et d’utiliser Zypper pour la gestion des paquets (un équivalent robuste de apt-get des familles DEB). Les administrateurs systèmes apprécieront également le dernier projet né : Machinery, un outil pour GNU/Linux afin d’inspecter les configurations des machines.
  • Ce que j’apprécie justement dans la communauté openSUSE c’est que les outils ne sont pas élitistes et profitent également aux autres distributions. Prenons par exemple l’outil OpenBuildService (OBS) qui est une forge utilisée pour construire des packages. L’instance publique utilisée pour les différentes versions d’openSUSE (et de SLES) est ouverte aux contributions, actuellement l’openSUSE Build Service héberge 47 593 projets, pour un total de 402 280 paquets dans 77 223 dépôts et est utilisée par 45 616 personnes. Il est simple et ouvert à tous de se créer un compte et packager sur cette plate-forme sans pour autant se limiter à *SUSE seulement, ni aux plates-formes Intel. Votre paquet peut-être construit pour toutes les distributions majeures (RHEL, CentOS, Fedora, SLES, openSUSE, Debian, Ubuntu, Mageia, AchLinux, etc) avec le support matériel allant des processeurs ARM jusqu’au mainframe. D’ailleurs le projet VLC utilise sa propre instance de l’OBS pour packager l’ensemble des versions du célèbre logiciel. L’instance privée permettant également la construction de logiciels pour les plateformes Windows.

Pourquoi est-elle moins connue en France qu’en Allemagne ?

Elle n’est pas populaire qu’en Allemagne, de nombreux pays l’utilisent et ce n’est pas pour rien qu’elle est souvent entre la troisième et cinquième place sur DistroWatch.

En revanche, c’est indéniable, elle reste méconnue en France. Je pense qu’il y a plusieurs raisons à cela.

D’une part, c’était une distribution payante à la base, elle n’est devenue gratuite sous l’appellation openSUSE qu’à partir la version 10.

Quand j’ai démarré Linux en 2004, j’ai commencé avec Ubuntu car j’avais des problèmes de reconnaissance de matériel, ce qui s’est clairement amélioré par la suite. À présent, je ne rencontre plus de difficulté de support matériel que ce soit sur de l’assemblé ou du constructeur même si bien évidemment, je me documente avant d’acheter. Un autre manque était le nombre de logiciels disponibles mais là encore la communauté a largement rattrapé son retard.

Ensuite, il y a eu le « scandale » des accords Novell Microsoft alors que Novell possédait SUSE. Paradoxalement, même si tout le monde a crucifié la distribution, c’est cette collaboration qui a permis à l’ensemble des distributions Linux de s’insérer sur un réseau géré en active directory 100% Windows. Comme je me fais souvent troller sur les stands avec cela, je tiens d’ailleurs à préciser que suite au rachat de Novell par Microfocus, SUSE et Novell sont deux entités distinctes et les accords liaient spécifiquement Novell et Microsoft, SUSE n’est donc plus concerné.

Pour toutes ces raisons, je pense que la communauté francophone est en retrait par rapport aux autres mais dès que l’on franchit les frontières de l’Hexagone, ce n’est plus la même répartition. C’est d’autant plus frustrant que lors d’événements du type RMLL, Solutions Linux, Paris OpenSource Summit, Capitole du Libre, des personnes viennent nous revoir d’une année à l’autre en nous disant qu’elles ne regrettent pas d’avoir essayé notre caméléon. Elles n’ont pas eu besoin de venir sur le forum chercher de l’aide. Comme toujours, les personnes qui s’inscrivent ont généralement des problèmes à résoudre, il manque les autres pour qui tout s’est bien passé.

En tout cas c’est moins facile d’avoir de l’aide… Moi aussi, je me suis battu avec une carte réseau récalcitrante et j’ai laissé tomber. Dommage, j’aimais bien. Comment on fait quand on galère ?

La communauté openSUSE francophone est clairement moins importante que celles d’autres distributions. C’est l’histoire de l’œuf ou la poule : est-ce que la communauté est petite à cause de sa popularité dans l’Hexagone ou est-ce l’inverse ?

Il existe néanmoins des moyens de trouver de l’aide sur openSUSE :

  • La mailing liste francophone
  • IRC #openSUSE-fr sur Freenode
  • le forum Alionet.org

Bref, un éventail de plate-formes pour essayer de correspondre à chacun.

Vous avez tout le temps plein de goodies. Il y a des sous dans openSUSE ? Quel est le modèle économique ?

openSUSE est financée en majeure partie par SUSE, qui a lancé la distribution. L’entreprise encourage ses ingénieurs à participer à openSUSE. Du coup ils peuvent bosser sur la distribution sur une partie de leur temps de travail. Il y a aussi d’autres entreprises qui font des dons de matériel (notamment les machines pour l’openSUSE Build Service).

Concernant les goodies, lorsqu’on est ambassadeur openSUSE, il est possible via le wiki + email de prétendre à un kit stand. Il faut indiquer l’événement, le volume de personnes attendues, etc. openSUSE envoie alors un kit stand que nous devons redistribuer gratuitement. (nappe, 2 t-shirts, flyers en anglais).

En parallèle l’association Alionet a pris plusieurs initiatives :

  • Prendre contact avec SUSE France avec qui nous avons d’excellents contacts pour quelques goodies supplémentaires.
  • Éditer sur le budget de l’association propre des t-shirts et clés USB car nous n’en avions pas de la part de nos partenaires.
  • Nous prenons en charge l’impression de documents en français puisque openSUSE ne fournit que des informations en anglais.

Pourquoi est-elle passée en rolling release ?

En fait, elle n’est pas passée en rolling release. 😉

Le projet propose maintenant deux distributions : une « classique », openSUSE Leap, la distribution principale, l’héritière de l’openSUSE que l’on connaissait jusqu’à l’an dernier. La dénomination Leap souligne le fait qu’il y a eu un changement dans la façon de construire la distribution, en faisant une base commune avec SUSE Linux Enterprise (SLE) la distribution commerciale de SUSE. Un « saut » qui s’est traduit également dans le numéro de version : 13.2 -> 42.1.

Une en rolling release effectivement : openSUSE Tumbleweed (« virevoltant » en anglais). Elle, c’est l’héritière de « Factory », une base de code instable qui servait aux contributeurs du projet à mettre au point openSUSE ancienne formule (avant Leap). Cette base de code a évolué, s’est dotée de nouveaux outils pour finalement être considérée comme « stable » – dans le sens où ça ne casse pas, mais bien sûr ça bouge vite – et être appelée Tumbleweed.

Pourquoi faire ça ? Pour mieux répondre aux besoins de chacun : ceux qui ont besoin d’une grande stabilité ou ne veulent pas beaucoup de changements sur leur système peuvent utiliser Leap, ceux qui veulent des logiciels toujours plus récents (mais stables ; pas des préversions ou très peu) peuvent utiliser Tumbleweed.

Quoi de neuf dans la nouvelle version, justement ?

Une des nouvelles les plus intéressantes est l’arrivée de Plasma 5.8.1, la toute dernière version du bureau KDE. C’est une version estampillée LTS, c’est-à-dire que KDE va se focaliser sur la stabilité et la durée pour cette version, ce qui colle avec les objectifs de Leap. Pour la petite histoire, openSUSE et KDE se sont mis d’accord pour que leurs calendriers respectifs collent et que Leap 42.2 puisse intégrer dans de bonnes conditions cette nouvelle version de Plasma. Et pour la deuxième petite histoire : KDE chez openSUSE, c’est entièrement géré par la communauté (ça ne vient pas de SLE).

Pour les amateurs de cartes et d’embarqué, de nouveaux portages pour ARM sont disponibles.

Pour les amateurs de nouveaux systèmes de fichiers : Snapper peut utiliser les quotas Btrfs pour gérer le nettoyage des snapshots.

Vous trouverez plus d’infos dans l’annonce de version.

La communauté Fedora se rend compte d’un déclin de l’intérêt des gens pour les principales distributions. Est-ce aussi un constat sur openSUSE ?

Pas à ma connaissance. Il y a peut être eu des signes en amont qui expliqueraient pourquoi openSUSE a revu son mode de fonctionnement en proposant deux versions : Leap et son rapprochement avec la version SUSE Linux Entreprise et la rolling release Tumbleweed face à la popularité d’Archlinux par exemple.

Ce que je constate en revanche, c’est le déclin de communauté d’entraide en général. La montée des réseaux sociaux a tué les bons vieux forums d’entraide et les mentalités ont changé. On peine à recruter des bonnes volontés mais ce n’est pas un problème exclusif à Alionet.

Comment peut-on aider au développement d’openSUSE ?

Une petite liste non-exhaustive de choses que l’on peut faire pour participer :

Le mot de la fin est pour vous

openSUSE est un projet global vraiment passionnant avec une communauté internationale très ouverte. Sa communauté francophone bien que peu nombreuse n’en est pas moins réactive et les personnes ont toujours trouvé des réponses à leurs questions.

N’hésitez pas à tester cette distribution et à venir à notre rencontre. 🙂

 

 

Pour aller plus loin :




Hé, en vrai, tu sais comment ça marche, toi, Wikipédia ?

Tout le monde connaît Wikipédia, chacun et chacune a son petit avis dessus, mais sait-on réellement comment cette encyclopédie collaborative fonctionne ?

Il y a 20 ans, lorsque, lors d’une soirée entre ami-e-s, on se posait une question du genre « Mais attends, comment on fait l’aspirine ? » le dialogue était souvent le même :

– Je sais pas, c’est pas avec de l’écorce de saule ?

– Oui mais ça doit être chimique, maintenant, non ?

– Je sais pas, t’as pas une encyclopédie ?

– Si, dans la bibliothèque, mais la raclette est prête.

– Bon, tant pis.

…et on en restait là. Aujourd’hui, on sort un ordiphone, on cherche la réponse sur Wikipédia, et on passe la raclette à se chamailler sur la fiabilité d’une encyclopédie où « tout le monde peut écrire n’importe quoi ».

(au fait, pour l’aspirine, on fait comme ça.)
Par NEUROtikerTravail personnel, Domaine public, Lien

En vrai, avez-vous déjà essayé d’écrire n’importe quoi sur Wikipédia… ? Savons-nous seulement comment ça marche ? Comment les articles sont-ils écrits, modifiés, corrigés, vérifiés, amendés… ?

Ça peut être impressionnant, la première fois qu’on se dit « tiens, et si moi aussi je participais à l’élaboration d’une encyclopédie ? » On peut se sentir un peu perdu·e, pas vraiment légitime, ou tout simplement ne pas savoir par quel bout commencer…

Heureusement, les membres de la communauté Wikipédia et Wikmédia France (l’association des contributeurs et contributrices à la Wikipédia francophone), ont créé un MOOC, un cours ouvert gratuit et en ligne, pour nous faire découvrir les rouages du cinquième site le plus visité au monde, et nous apprendre à nous en emparer.

L’an dernier plus de 6 000 personnes se sont inscrites à ce cours. Fort-e-s de cette expérience, l’équipe rempile pour une deuxième édition, l’occasion pour nous de les interroger et de découvrir ce que proposera ce cours.

By MarcBrouillon, DePlusJean. – Dérivé de File:Logo WikiMooc.jpg., CC BY-SA 4.0, Link

 

Bonjour, avant toute chose, est-ce que vous pourriez nous présenter Wikimédia France et vos personnes ?

Jules : Bonjour ! Wikimédia France est une association française à but non-lucratif dont l’objet est « de soutenir en France la diffusion libre de la connaissance, notamment l’encyclopédie Wikipédia. » Il y a souvent des confusions à ce sujet, alors clarifions : Wikipédia est totalement rédigée par des internautes bénévoles, qui s’organisent de manière autonome et déterminent les règles du site. L’association Wikimédia France soutient les contributeurs et l’encyclopédie, mais ne participe pas à la rédaction et n’a aucun pouvoir sur la communauté ; ce n’est d’ailleurs pas la seule association à soutenir l’encyclopédie. Natacha, Alexandre, Valentin et moi-même sommes des contributrices et contributeurs bénévoles de Wikipédia ; nous faisons partie de la douzaine de bénévoles qui conçoivent le WikiMOOC. Je suis par ailleurs salarié de Wikimédia France, qui soutient l’initiative.

Une des missions de Wikimédia France, c’est justement d’inciter qui le veut à contribuer à la Wikipédia francophone… C’est pour cela que vous proposez ce MOOC ? Les cours massivement ouverts et en ligne sont un bon moyen d’inciter aux apports ?

Jules : Oui, les MOOC cumulent plusieurs avantages : bien souvent gratuits, ils sont en ligne et permettent donc de toucher un public plus nombreux qu’avec des formations en présentiel, mais aussi plus diversifié. Le MOOC s’adresse d’ailleurs à toute la francophonie, et près de la moitié des inscrits ne sont pas français.

Alexandre: Le WikiMOOC est effectivement réalisé de manière à donner envie de contribuer. Petit à petit, l’apprenant est guidé vers la rédaction d’un article. Mais il y a des façons très diverses de contribuer : ajouter des sources, des photos, corriger la mise en page, linkifier, améliorer des ébauches d’articles… Une des nouveautés de la deuxième session du WikiMOOC est de présenter des témoignages de contributeurs pour qu’ils racontent ce qu’ils font. Il est aussi plus aisé de contribuer si on ne se sent pas un étranger dans le monde de Wikipédia. Le but du WikiMOOC est aussi de faire mieux connaître ce monde aux apprenant-e-s.

Si je crains que « n’importe qui puisse écrire n’importe quoi dans Wikipédia », ce MOOC me rassurera-t-il ?

Jules : Nous l’espérons, car les choses ne sont pas aussi simples ! L’affirmation initiale, néanmoins, est exacte : n’importe qui peut écrire n’importe quoi sur Wikipédia. Mais le n’importe quoi a de fortes probabilités de ne rester sur Wikipédia qu’une vingtaine de secondes tout au plus. Car il faut étayer toute affirmation par des sources, et des sources de qualité, dont on sait qu’elles sont fiables (pas un obscur blog anonyme, donc). Pour vérifier que cette règle est bien respectée, il y a notamment un groupe de contributrices et contributeurs qui surveillent en temps réel les modifications effectuées sur les 1,8 million d’articles de Wikipédia : on les appelle avec un brin d’humour « les patrouilleurs ». C’est à ce stade que sont annulés la plupart des canulars, « vandalismes » (les dégradations volontaires d’articles) et ajouts d’opinions personnelles (totalement proscrits : on ne donne jamais son avis personnel dans un article). Certaines modifications passent évidemment entre les mailles du filet et ne seront annulées que plusieurs heures ou plusieurs jours après, par d’autres contributeurs – on manque de bras pour tout vérifier !

Finalement, à qui s’adresse ce MOOC ? Aux personnes qui veulent juste en savoir plus ? À celles qui veulent contribuer activement mais ne savent pas comment ?

Valentin : À tout le monde ! On peut effectivement s’inscrire juste pour comprendre comment Wikipédia fonctionne. Mais ce MOOC est surtout un outil permettant en quelques semaines d’assimiler l’essentiel de ce qu’il faut pour contribuer correctement. Nous voulons que de nombreuses personnes s’emparent de cet outil pour désacraliser la contribution à Wikipédia. Tout le monde utilise Wikipédia en tant que consommateur, mais trop peu de personnes viennent contribuer.

Jules : On peut se sentir un peu perdu quand on commence sur Wikipédia, seul⋅e. Le WikiMOOC est justement parfait pour être guidé dans sa découverte de l’encyclopédie, de son fonctionnement et de sa communauté.

Alexandre : Pour moi qui suis aussi universitaire, le WikiMOOC est un fabuleux point d’entrée pour un cours de Wikipédia. J’essaye donc de synchroniser mes cours avec le WikiMOOC ce semestre pour y inscrire mes étudiant-e-s, et j’encourage les collègues à faire de même !

Comme Framasoft, Wikimédia France est une association qui vit du don… Or créer un MOOC coûte cher… Comment avez-vous pu réussir ce tour de force ?

Jules : La création d’un MOOC, pour une université, se compte toujours en dizaines de milliers d’euros. Nous n’en avons dépensé « que » (ça nous paraît énorme, à vrai dire) 7 500 pour la première édition : 2 500 pour la plateforme, FUN, et 5 000 pour la réalisation des vidéos, via une association de vidéastes amateurs, beaucoup moins cher qu’avec un professionnel ! Et moitié moins pour cette seconde édition. Notre force, c’est qu’il y a une douzaine de bénévoles, contributeurs et contributrices francophones, qui bossent sur le projet ; c’est cet investissement bénévole, en temps, qui nous permet de ne pas dépenser trop. Nous réalisons nous-mêmes beaucoup de tâches (créer des visuels, tourner certaines vidéos, concevoir des tutoriels interactifs…) qui dans une université seraient sous-traitées. Nous bénéficions tout de même d’une partie importante de mon temps salarié chez Wikimédia France, même si je m’investis aussi sur du temps bénévole.

Quand il y a une personne face caméra, il y en a souvent plein en coulisses 😉
By English: Credits to Habib M’henni / Wikimedia Commons – Own work, CC BY-SA 4.0, Link

En passant, on lit de l’équipe pédagogique que « Ces trois présentateurs et présentatrices font partie d’une équipe pédagogique plus large, riche de treize wikipédiens et wikipédiennes expérimenté·e·s ». Le langage épicène, qui permet d’éviter la discrimination d’un genre, vous tient à cœur pour la wikipédia francophone ?

Natacha : Le langage épicène (ou langage non sexiste) est un langage inclusif qui tente de ne pas favoriser un genre par rapport à l’autre. Il est utilisé notamment en Suisse et au Québec, surtout dans la fonction publique. Par ailleurs, nous avons un fossé des genres sur Wikipédia – 75 000 articles sur des femmes contre 450 000 biographies d’hommes et moins de 20 % de personnes contribuant sont des femmes – ce qui introduit parfois des biais dans la façon dont les sujets sont traités. La fondation Wikimedia (qui participe au financement de Wikimédia France) en a fait un sujet de priorité depuis qu’un article du New York Times a relevé ce problème en 2011.

Par ailleurs le WikiMOOC cible toute la communauté francophone, et nommer explicitement le genre féminin peut avoir un impact sur la participation des femmes à ce dernier, alors même qu’on cherche à augmenter le nombre de contributrices ce détail peut avoir son importance !

Jules : Natacha a su nous convaincre d’utiliser le langage épicène dans le WikiMOOC ;-). Mais celui-ci n’est pas en usage systématique sur Wikipédia en français, notamment en raison de sa lourdeur visuelle, et car il n’est pas (encore ?) répandu dans les usages. Or Wikipédia a tendance (rien de systématique) à suivre les usages de la langue.

D’ailleurs, on peut parfois ne pas être d’accord avec les choix faits dans les règles que s’impose la communauté Wikipédia (éligibilité des articles, traitement des genres et des personnes trans, application du point de vue…). Quelle est la meilleure manière de faire évoluer ces positions ?

Jules : Le meilleur moyen de faire évoluer les règles de Wikipédia, ou bien les consensus qui ont émergé au coup par coup pour chaque article, c’est de s’investir dans la communauté. On voit souvent des internautes débarquer, parfois très bien intentionnés, mais très maladroits : ils arrivent et veulent tout changer. Or les contributeurs et contributrices sont souvent sur leurs gardes, notamment parce qu’il y a régulièrement des tentatives d’entrisme et de manipulation de Wikipédia à des fins idéologiques et politiques (en faveur d’une personnalité politique par exemple). Ce sont des internautes qui veulent utiliser la notoriété de Wikipédia pour faire et défaire les notoriétés, pour passer leurs idées… alors que ce n’est pas le lieu. Bref, quand on est bien intentionné, il est primordial dans un premier temps de se familiariser avec les règles ainsi que les us et usages relatifs qui guident le déroulement les discussions et les décisions. Cela évite les maladresses, et ça permet de parler le même langage que les autres contributeurs et contributrices bénévoles. Ça instaure une confiance mutuelle.

Wikipédia, c’est une encyclopédie, mais aussi nombre d’autres projets visant à partager le savoir collaborativement… vous en parlerez dans ce MOOC ?

Alexandre : Le mouvement Wikimedia contient de nombreux projets en plus de Wikipédia, comme Wikimedia Commons qui est l’endroit où les fichiers multimédia Wikipédia-compatibles sont déposés. Comment ajouter une photo est une question qui revient souvent donc le sujet est abordé. Au delà, Wikipédia et les projets « sœurs » sont une excellente école pour comprendre les enjeux du copyright et de ses abus, ce que sont les licences Creative Commons et ce qu’elles représentent politiquement. La famille des projets Wikimedia correspond au seul projet libre (libre comme dans libre discours, pas comme dans libre bière 🙂 ) accessible au et connu du grand public. À ce titre, il est une sorte de porte étendard et pour moi, le WikiMOOC a aussi pour vocation de le promouvoir.

Bon c’est bien gentil tout ça, mais ça va me demander quoi de participer à ce MOOC ? Des milliers d’heures de travail ? Un ordi surpuissant dernier cri ? Une connaissance infaillible de la calcification des hydrogénocarbonates ?

Alexandre : le point commun de tous les MOOC, c’est qu’on peut se sentir libre de les aborder à sa manière : regarder seulement les vidéos, faire les exercices ou pas, s’intéresser à une semaine mais pas à l’autre. Dans le WikiMOOC, des mécanismes pédagogiques sont prévus pour inciter les apprenant-e-s à aller le plus en profondeur possible mais tout le monde doit se sentir libre (sauf mes étudiant-e-s qui seront noté-e-s, évidemment !).

Jules : Pour rebondir sur votre question, pas besoin d’ordi surpuissant, un navigateur web à jour suffit amplement. Pour suivre la totalité du cours, il faut compter au moins trois heures de travail par semaine, mais c’est très variable d’une personne à une autre !

Du coup, si je suis convaincu, qu’est-ce que je dois faire pour m’inscrire ?

Valentin : Les inscriptions (gratuites évidemment) ont lieu sur fun-mooc.fr !

Et, comme d’habitude sur le Framablog, on vous laisse le mot de la fin !

Jules : Soyez nombreux et nombreuses à vous inscrire pour aider à donner accès à la connaissance au plus grand nombre !




Wallabag it, une belle occasion d’y aller de votre poche !

Pour ne plus avoir 50 onglets ouverts « à lire plus tard » et garder tous les articles qu’on veut lire dans la poche, il existe une solution simple et libre : wallabag.

Wallabag, c’est le logiciel qui se trouve derrière notre service Framabag. Le principe est simple : vous vous inscrivez au service, et vous ajoutez l’extension à votre navigateur (Firefox ou Chrome/Chromium) afin d’avoir le bouton magique qui vous permet de sauvegarder vos articles à lire plus tard.

Ensuite, il ne vous reste plus qu’à aller les lire sur le site web du service ou depuis l’application de votre ordiphone…

Côté serveur, de notre côté donc, ce n’est pas la même paire de manchots. Voilà plusieurs mois que wallabag a sorti une version majeure (2.X), avec de mirifiques nouvelles fonctionnalités. Mais Framabag reste obstinément dans une version antérieure (1.9.X).

La raison est simple, nous sommes victimes de notre succès : migrer plus de 11 000 comptes vers une nouvelle version majeure est un très gros travail, un travail concernant des données sensibles (qu’on ne peut donc pas déléguer à n’importe qui). Or, comme toujours, nos bénévoles et salariés ont déjà une toudou liste qui déborde… Ce qui ne veut pas dire qu’on ne fera jamais la mise à jour, juste qu’elle est trop importante pour qu’on la fasse dans l’urgence, et que nous allons prendre notre temps.

Bien entendu, le top serait que chacun-e d’entre vous auto-héberge son wallabag, par exemple en utilisant Yunohost ou le tutoriel dédié. Malheureusement, ce n’est pas (encore) une solution accessible à toutes et tous.

Qu’à cela ne tienne, Nicolas Lœuillet, créateur et développeur principal de wallabag, et par ailleurs membre de Framasoft, propose une alternative intéressante (parce que payante) : wallabag.it !

Alors non : nous ne nous sommes pas concertés, mais oui : cela nous arrange. 11 000 comptes Framabag, c’est beaucoup trop, et il y a grandement besoin de solutions d’hébergement alternatives. C’est surtout l’occasion de démontrer une fois encore que libre ne signifie pas gratuit, et qu’il est important de ne pas mettre toutes ses données dans le même panier, fût-ce dans celui de Framasoft… Mais parlons-en donc avec le principal intéressé.

Une illustration de Wallabag V2 piquée au blog de Dadall

Bonjour Nicolas ! Peux-tu te présenter au lectorat du Framablog ?

Salut le lectorat du Framablog.

Je suis Nicolas, développeur web de métier et développeur de wallabag (vous avez vu ? Pas de w majuscule !) à mes heures perdues. Depuis maintenant trois ans, je suis également membre (à mes minutes perdues) de Framasoft.

Du coup c’est quoi, wallabag it ? Un Framabag survitaminé ? Quels sont les avantages et nouvelles fonctionnalités de ce service ?

wallabag.it, c’est un service en ligne qui te permet d’utiliser wallabag sans se soucier de l’installation, de la maintenance, des mises à jour de l’application.

Tu viens, tu crées ton compte et tu utilises. C’est tout.

C’est pas un Framabag survitaminé : c’est pareil que Framabag dans l’idée. La différence, c’est la version de wallabag : comme c’est si bien expliqué dans l’introduction du billet, nous avons publié une nouvelle version majeure l’an dernier (la deuxième du nom) et la mise à jour de Framabag est quelque peu complexe.

Les avantages de ce service, c’est la simplicité de création de compte. Pas besoin d’avoir les compétences pour installer une application web.

Il n’y a aucune différence de fonctionnalité entre le service et l’application que tu pourrais installer chez toi, sur ton serveur personnel. Et il n’y en aura jamais. Au mieux, certaines fonctionnalités seront proposées avant sur wallabag.it, mais à terme, tout sera rendu à la communauté.

D’accord, mais si je m’inscris, ça va me coûter combien cette affaire ? Un café ? Un menu Falafel-Frites-Ice tea ? Une Porsche Carrera 911 ?

Si tu t’inscris, ça ne te coûte rien pendant 14 jours. Pas besoin de carte de crédit pour te créer un compte, juste une adresse mail valide.

Ensuite, ça te coûtera 12 euros par an. Douze euros. Un seul euro par mois. Soit pas grand chose. Moins d’un café par mois, du coup. Et un peu moins qu’une Porsche.

Et puisqu’on est sympas, l’abonnement annuel est actuellement à 9 euro par an (et puis il parait que ça fait bien niveau marketing).

Juste pour comparer, voici l’interface d’un wallabag en V1…

Imaginons que je sois sur Framabag (ou sur Pocket, tiens !) et que je veuille migrer vers wallabag it… Comment je fais pour migrer mes données ? Y’a besoin d’un bac + 42 en administration système ?

Si tu es sur Framabag et que tu souhaites migrer vers wallabag.it, tu dois exporter tes données (dans la page Configuration, il y a un lien pour ça). Ensuite, tu importes le fichier généré dans wallabag.it, rubrique Import. Tu choisis « wallabag v1 », tu sélectionnes ton fichier et roule ma poule.

Ça, c’est en théorie. Parce qu’en réalité, l’export depuis Framabag connaît parfois quelques ratés (certains diront que l’export depuis Framabag fonctionne de temps en temps, la nuance est minime). Si c’est le cas pour toi, contacte le support de Framasoft ou contacte le support de wallabag.it et on s’occupe d’exporter tes données (et au passage, on les revendra pour s’enrichir encore plus).

Si tu es sur Pocket et que tu souhaites migrer vers wallabag.it, c’est plus simple. Rubrique Import, tu choisis Pocket et tu te laisses aller (pas trop non plus). Ça devrait marcher tout seul, certains sont arrivés de Pocket avec 20.000 articles en poche 😆

Cela fait combien de temps que wallabag est dans ta vie ? Tu as déjà compté le nombre d’heures, de journées, de lignes de code passées bénévolement sur ce projet ?

wallabag et moi, on se connaît depuis bientôt quatre ans. Tout a commencé en avril 2013. Je marchais sur une plage, un peu comme celle-ci.

Je n’ai jamais compté mes heures pour wallabag, et je pense qu’il ne faut pas. Quand on aime, de toute façon, on ne compte pas.

Par contre les lignes de code, c’est plus simple : y’en a plus de 220.000 actuellement dans le projet. C’est uniquement un chiffre qui ne veut rien dire, et puis dedans y’a des lignes de javascript ou de HTML et comme chacun le sait, c’est pas vraiment du code, donc ça compte pas.

On dit souvent que « Libre ne veut pas dire gratuit »… est-ce que proposer wallabag It est aussi une façon de faire reconnaître le travail fourni sur ce logiciel et de le rémunérer pour que tu puisses t’y consacrer plus amplement ?

Le but à terme, oui ça serait ça : pouvoir me dégager encore plus de temps pour wallabag et faire avancer ce projet. Aujourd’hui, je suis salarié dans une petite SSII à 80%, le reste c’est pour wallabag. Si je peux encore réduire mon temps de travail, ça serait bien.

C’est gentil tout cela, mais si je m’inscris sur wallabag it, qu’est-ce qui me garantit que demain, ou dans un an, tu ne fermeras pas le code de wallabag, me demanderas un bras au lieu de 12 €, ou carrément l’âme de ma première-née pour utiliser ton service…?

La confiance. Tu ne peux te baser que sur ça : wallabag est et restera toujours open source et sous licence libre.

Concernant le service wallabag.it, je ne peux pas te dire que ça restera toujours 12 euros. Si tu veux me donner un bras, ça peut nous intéresser : on en manque par moment dans l’équipe, donc ça pourrait être pratique pour coder.

Question-perso-de-Pouhiou : moi j’ai déjà un wallabag V2 sur ma Brique Internet (et je le kiffe). Mais j’ai aussi une liseuse (la Cybook Muse HD de chez Bookeen, pour tout te dire…) sur laquelle j’aimerais bien lire les articles de mon wallabag… Comment je fais ? Est-ce que te soutenir te permettra de mettre en place de telles collaborations ? Et tu préfères que je te fasse un don (où ?) ou bien que j’offre un compte wallabag it à mon petit frère ?

Pour Bookeen, rassure-toi, il parait que ça arrive : une application wallabag native sur leurs liseuses 🎉

Tu peux payer un compte wallabag.it à ton petit frère et aussi à tous ceux que tu connais : j’ai des vacances à payer, merci.

Pour celles et ceux qui utilisent la liseuse Touch Lux 3 de chez Pocketbook, sachez qu’il existe une application pour lire vos articles wallabag !

Dis, j’y pense : proposer un service payant, c’est chaud niveau données : moyen de paiement, contact par email, chiffrage peut-être, etc. Que prévois-tu pour respecter les données de ta clientèle ?

Oui, c’est chaud niveau données.

Pour lancer le service, je m’étais fixé une obligation : ne bosser qu’avec des prestataires européens voire français.

L’hébergement est chez Web4all.fr

Le système de paiement est chez Payplug

L’emailing est chez Mailjet

Le nom de domaine et le certificat SSL sont proposés par Gandi

Alors, ça vaut ce que ça vaut, bien sûr, mais je ne voulais pas de services américains.

Et niveau respect des données, accès / revente de celles-ci, c’est pareil que les services proposés par Framasoft : c’est basé sur la confiance. Une phrase du site que j’aime bien : Parce que notre modèle économique est basé uniquement sur vos abonnements, nous n’avons pas besoin de lire ou revendre vos données.

Et si on est convaincu-e, on fait quoi, on s’inscrit où ?

Si t’es convaincu-e, tu te crées un compte ici.

Ensuite, tu peux bénéficier des 14 jours gratuits, puis te rendre dans la partie Abonnements.

Et le tour est joué !

Comme d’habitude, on te laisse le mot de la fin….

Merci à mes parents, sans qui je ne serai pas là aujourd’hui.

Non, plus sérieusement, merci à toute l’équipe wallabag (et ils sont nombreux) et merci à l’équipe Framasoft, qui m’ont tous soutenu depuis très longtemps maintenant.

Et dépêchez-vous de prendre un abonnement wallabag.it : début mars, ça repasse à 12 euros !




Des routes et des ponts (18) – À la croisée des chemins

Le 12 septembre dernier, Framalang commençait la traduction de l’ouvrage de Nadia Eghbal Des routes et des ponts. Aujourd’hui, nous vous proposons le dernier chapitre de ce livre.

Ce chapitre s’interroge sur la marche à suivre pour continuer les avancées technologiques et sociales des cultures open source et libres. Cette conclusion rappelle qu’à l’heure de l’information, tout le monde est concerné par les technologies ouvertes, bien que nous n’en ayons souvent que peu conscience. Ainsi, afin de pouvoir continuer d’utiliser cette infrastructure qui a été mise à notre disposition, nous devons nous mobiliser pour en garantir la pérennité.

À la croisée des chemins

par Nadia Eghbal

Traduction Framalang : goofy, MO, Luc, Lumibd, Rozmador, serici, Bromind, lyn., Bam92

L’état actuel de notre infrastructure numérique est un des problèmes les moins bien compris de notre temps. Il est vital de le comprendre.

En s’investissant bénévolement dans notre structure sous-jacente, les développeurs ont facilité la construction de logiciels pour autrui. En la fournissant gratuitement plutôt qu’en la facturant, ils ont alimenté une révolution de l’information.

Les développeurs n’ont pas fait cela pour être altruistes. Ils l’ont fait car c’était la meilleure manière de résoudre leurs propres problèmes. L’histoire du logiciel open source est l’un des grands triomphes de nos jours pour le bien public.

Nous avons de la chance que les développeurs aient limité les coûts cachés de ces investissements. Mais leurs investissements initiaux ne nous ont amenés que là où nous sommes aujourd’hui.

Nous ne sommes qu’au commencement de l’histoire de la transformation de l’humanité par le logiciel. Marc Andreessen, co-fondateur de Netscape et reconnu comme capital-risqueur derrière la société Andreessen Horowitz, remarque en 2011 que «le logiciel dévore le monde» (source). Depuis lors, cette pensée est devenue un mantra pour l’ère moderne.

Le logiciel touche tout ce que l’on fait : non seulement les frivolités et les loisirs, mais aussi les choses obligatoires et critiques. OpenSSL, le projet décrit au début de cet essai, le démontre bien. Dans une interview téléphonique, Steve Marquess explique qu’OpenSSL n’était pas utilisé seulement par les utilisateurs de sites web, mais aussi par les gouvernements, les drones, les satellites et tous «les gadgets que vous entendez bipper dans les hôpitaux» [Entretien téléphonique avec Steve Marquess, NdA.].

Le Network Time Protocol [protocole de temps par le réseau, NdT], maintenu par Harlan Stenn, synchronise les horloges utilisées par des milliards de périphériques connectés et touche tout ce qui contient un horodatage. Pas seulement les applications de conversations ou les courriels, mais aussi les marchés financiers, les enregistrements médicaux et la production de produits chimiques.

Et pourtant, Harlan note:

Il y a un besoin de soutenir l’infrastructure publique libre. Mais il n’y a pas de source de revenu disponible à l’heure actuelle. Les gens se plaignent lorsque leurs horloges sont décalées d’une seconde. Ils disent, «oui nous avons besoin de vous, mais nous ne pouvons pas vous donner de l’argent». (source)

Source – Licence CC-BY-SA 4.0

Durant ces cinq dernières années, l’infrastructure open source est devenue une couche essentielle de notre tissu social. Mais tout comme les startups ou la technologie elle-même, ce qui a fonctionné pour les 30 premières années de l’histoire de l’open source n’aidera plus à avancer. Pour maintenir notre rythme de progression, nous devons réinvestir dans les outils qui nous aident à construire des projets plus importants et de meilleure qualité.

Trouver un moyen de soutenir l’infrastructure numérique peut sembler intimidant, mais il y a de multiples raisons de voir le chemin à parcourir comme une opportunité.

Premièrement, l’infrastructure est déjà là, avec une valeur clairement démontrée. Ce rapport ne propose pas d’investir dans une idée sans plus-value. L’énorme contribution sociale de l’infrastructure numérique actuelle ne peut être ignorée ni mise de côté, comme cela est déjà arrivé dans des débats tout aussi importants sur les données, la vie privée, la neutralité du net, ou l’opposition entre investissement privé et investissement public. Il est dès lors plus facile de faire basculer les débats vers les solutions.

Deuxièmement, il existe déjà des communautés open source engagées et prospères avec lesquelles travailler. De nombreux développeurs s’identifient par le langage de programmation qu’ils utilisent (tels que Python ou JavaScript), la fonction qu’ils apportent (telles qu’analyste ou développeur opérationnels), ou un projet important (tels que Node.js ou Rails). Ce sont des communautés fortes, visibles, et enthousiastes.

Les constructeurs de notre infrastructure numérique sont connectés les uns aux autres, attentifs à leurs besoins, et techniquement talentueux. Ils ont déjà construit notre ville ; nous avons seulement besoin d’aider à maintenir les lumières allumées, de telle sorte qu’ils puissent continuer à faire ce qu’ils font de mieux.

Les infrastructures, qu’elles soient physiques ou numériques, ne sont pas faciles à comprendre, et leurs effets ne sont pas toujours visibles, mais cela doit nous encourager à les suivre plus en détail, pas moins. Quand une communauté a parlé si ouvertement et si souvent de ses besoins, tout ce que nous devons faire est d’écouter.

Remerciements

Merci à tous ceux qui ont courageusement accepté d’être mentionnés dans cet ouvrage, ainsi qu’à ceux dont les réponses honnêtes et réféléchies m’ont aidée à affiner ma pensée pendant la phase de recherche :
André Arko, Brian Behlendorf, Adam Benayoun, Juan Benet, Cory Benfield, Kris Borchers, John Edgar, Maciej Fijalkowski, Karl Fogel, Brian Ford, Sue Graves, Eric Holscher, Brandon Keepers, Russell Keith-Magee, Kyle Kemp, Jan Lehnardt, Jessica Lord, Steve Marquess, Karissa McKelvey, Heather Meeker, Philip Neustrom, Max Ogden, Arash Payan, Stormy Peters, Andrey Petrov, Peter Rabbitson, Mikeal Rogers, Hynek Schlawack, Boaz Sender, Quinn Slack, Chris Soghoian, Charlotte Spencer, Harlan Stenn, Diane Tate, Max Veytsman, Christopher Allan Webber, Chad Whitacre, Meredith Whittaker, Doug Wilson.

Merci à tous ceux qui ont écrit quelque chose de public qui a été référencé dans cet essai. C’était une partie importante de la recherche, et je remercie ceux dont les idées sont publiques pour que d’autres s’en inspirent.

Merci à Franz Nicolay pour la relecture et Brave UX pour le design de ce rapport.

Enfin, un très grand merci à Jenny Toomey et Michael Brennan pour m’avoir aidée à conduire ce projet avec patience et enthousiasme, à Lori McGlinchey et Freedman Consulting pour leur retours et à Ethan Zuckerman pour que la magie opère.


Framasoft remercie chaleureusement les 40 traducteurs et traductrices du groupe Framalang qui depuis septembre ont contribué à vous proposer cet ouvrage (qui sera disponible en Framabook… quand il sera prêt) :

Adélie, AFS, alien spoon, Anthony, Asta (Gatien Bovyn), astraia_spica, Bam92 (Abel Mbula), Bidouille, Bromind (Martin Vassor), Ced, dominix, Edgar Lori, flo, glissière de sécurité, goofy, goudron, Julien / Sphinx, jums, Laure, Luc, Lumibd, lyn, Mika, MO, Opsylac (Diane Ranville), pasquin, Penguin, peupleLà, Piup, roptat, Rozmador, salade, serici, teromene, Théo, urlgaga, woof, xi (Juliette Tibayrenc), xXx

 




Des routes et des ponts (17) – une vue d’ensemble

Nous arrivons bientôt au terme de notre traduction semaine après semaine de l’ouvrage Des routes et des ponts de Nadia Eghbal (version originale en PDF). Pour remonter vers les épisodes précédents il suffit de cliquer sur ce lien.

Aujourd’hui nous vous proposons un chapitre qui recense les moyens dont les institutions et entreprises pourraient contribuer au développement et à la pérennité des projets open source qui constituent la colonne vertébrale de l’infrastructure numérique.

Traduction Framalang : Penguin, lyn, goofy, Opsylac, xXx

Une esquisse du tableau

Il est trop tôt pour dire à quoi devrait ressembler le soutien institutionnel à long terme d’un point de vue prospectif, mais il y a plusieurs domaines de travail critiques qui peuvent nous aider à le déterminer. Les propositions suivantes sont rattachées à trois domaines :

  • Traiter les infrastructures numériques comme un bien commun essentiel et les élever au rang d’acteur intersectoriel clé ;
  • Travailler avec des projets pour améliorer les standards, la sécurité et les flux de production ;
  • Augmenter la taille du groupe de contributeurs de manière à ce que davantage de personnes, et davantage de personnes de types différents, puissent élaborer et soutenir ensemble les logiciels publics.

Conscientiser et éduquer les acteurs clés

Comme nous l’avons relevé dans ce rapport, beaucoup d’acteurs clés — dont les startups, les gouvernements, et les sociétés de capital risque — pensent à tort que les logiciels publics « fonctionnent, tout simplement » et ne requiert pas de maintenance supplémentaire. Pour entretenir correctement l’écosystème de nos infrastructures numériques, ces populations devraient être les premières à être informées du problème. Les infrastructures numériques ont besoin de porte-paroles qui soient affranchis de toute contrainte politique ou commerciale et qui puissent comprendre et communiquer les besoins de l’écosystème.

Traiter les infrastructures numériques comme des biens publics essentiels pourrait également motiver l’investissement direct dans la construction de meilleurs systèmes à partir de zéro. Par exemple, aux États-Unis, les autoroutes inter-états et le réseau de bibliothèques publiques furent dès l’origine conçus comme des ressources publiques. Les unes et les autres ont eu leur champion (respectivement le Président Dwight Eisenhower et le philanthrope Andrew Carnegie) qui ont clairement argumenté en faveur du bénéfice social et financier qui résulterait de tels projets.

Un réseau national d’autoroutes ne sert pas uniquement à nous relier en tant qu’individus, en facilitant les déplacements d’un endroit à un autre, mais il apporte aussi la prospérité financière dans tous les coins du pays, grâce à l’usage commercial des voies rapides pour acheminer les marchandises. Dans les bibliothèques Andrew Carnegie, publiques et gratuites, les livres étaient accessibles et non stockés en magasin, pour permettre aux gens de les feuilleter et d’y trouver eux-mêmes l’information sans avoir recours à un⋅e bibliothécaire. Cette pratique a aidé à démocratiser l’information et à donner aux gens les moyens de s’éduquer eux-mêmes.

Une meilleure éducation et une meilleure prise de conscience pourraient s’étendre jusqu’aux gouvernements, dont certains ont rendu, par la loi, les infrastructures numériques difficiles à soutenir et qui ne sont peut-être pas familiers des normes culturelles et de l’histoire de l’open source. Aux USA, l’IRS [NdT : Internal Revenue Service – organisme qui collecte l’impôt] a une définition très restrictive des activités caritatives, et comme l’open source est mal comprise, son impact positif sur la société demeure ignoré. Cela complique l’institutionnalisation de plus gros projets à travers une fondation ou une association professionnelle.

Mesurer l’utilisation et l’impact de l’infrastructure numérique

L’impact de l’infrastructure numérique est encore très difficile à mesurer. Les indicateurs habituels sont soit très imprécis, soit simplement indisponibles. Ce n’est pas un problème facile à résoudre. Mais sans données relatives aux outils utilisés et à notre dépendance vis-à-vis d’eux, il est difficile de se faire une idée nette de ce qui manque de financement.

Avec de meilleurs indicateurs, nous pourrions décrire l’impact économique de l’infrastructure numérique, identifier les projets essentiels qui manquent de financement, et comprendre les dépendances entre les projets et entre les personnes. Pour le moment, il est impossible de dire qui utilise un projet open source à moins que l’utilisateur, individu ou entreprise, ne le révèle. Pour déterminer quel projet a besoin de plus de soutien, nous ne disposons que d’informations anecdotiques.

De meilleures statistiques pourraient également nous aider à identifier les « contributeurs clé de voûte ». En biologie environnementale, une « espèce clé » est une espèce animale qui a un impact disproportionné sur son environnement au regard de ses effectifs. Dans la même idée, un « contributeur clé » pourrait être un développeur qui contribue à plusieurs projets essentiels, qui est le seul responsable d’un projet crucial, ou qui est généralement perçu comme influent et digne de confiance. Les « contributeurs clés » sont des défenseurs essentiels, les valoriser en leur fournissant les ressources dont ils ont besoin pourrait améliorer le système dans son ensemble. Comprendre les relations entre les communautés open source et les « contributeurs clés » pourrait aider à identifier rapidement les secteurs qui auront besoin de soutien supplémentaire.

On dispose également de peu de données sur les contributeurs eux-mêmes : qui contribue à l’open source, quelles conditions leur permettent de le faire, et quelles sont les contributions effectuées. Les femmes, les non-anglophones, et les nouveaux contributeurs à l’open source sont des exemples de population qui devraient être suivies dans le temps, en particulier pour mesurer l’impact des programmes de soutien.

Les seules statistiques disponibles sur les dépôts GitHub sont le nombre de personnes ayant étoilé (action semblable à liker), vu (c’est-à-dire qu’elles reçoivent des nouvelles du projet) ou « forké » un projet. Ces chiffres permettent de fournir des indicateurs concernant la popularité, mais ils peuvent être trompeurs. Beaucoup de personnes peuvent étoiler un projet, parce qu’il a une conception intéressante par exemple, sans toutefois l’intégrer à leur propre code.

Certains gestionnaires de paquets tels npm (qui est celui de Node.js) suivent les téléchargements. Le « popularity contest » de Debian piste les téléchargements du système d’exploitation libre Debian. Néanmoins, chaque gestionnaire de paquets est limité à un écosystème particulier, et aucun de ces gestionnaires ne peut donner une image du système dans son ensemble. Plusieurs projets ne sont pas inclus dans un gestionnaire de paquets et ne sont pas suivis. Libraries.io, un site web créé par Andrew Nesbitt, est une tentative pour agréger des données des projets open source en fonction de leur usage, il piste environ 1,3 millions de bibliothèques open source sur 32 gestionnaires de paquets.

Travailler avec les projets pour moderniser l’organisation de travail

Beaucoup de projets sont en difficulté et pas seulement à cause d’un manque de financement, mais aussi parce qu’il est difficile d’y contribuer, ou encore parce qu’il existe un goulot d’étranglement au niveau des mainteneurs qui traitent les demandes de modification (pull requests) de la communauté. C’est vrai, en particulier, pour les plus anciens projets qui ont été bâtis avec des outils de développement, des langages et des processus qui ne sont plus populaires (ceux qui par exemple utilisent un système de contrôle de version autre que Git, dont la popularité croît chez les développeurs).

On peut faire beaucoup de choses pour faciliter la contribution à un projet, depuis la migration vers un flux de travail (workflow) plus moderne, le nettoyage du code, la fermeture des pull request délaissées, jusqu’à la mise en place d’une politique claire pour les contributions. Certains projets expérimentent pour rendre les contributions plus simples. Le développeur Felix Geisendörfer, par exemple, a suggéré que chaque personne qui soumet une modification du code devrait avoir une permission de commit afin de réduire l’engorgement au niveau de l’unique mainteneur vérifiant et approuvant ces changements. Felix a estimé que « cette approche est un fantastique moyen d’éviter que le projet ne se ratatine en transformant le projet d’un seul homme en celui d’une communauté. »

Le règlement de contribution de Node.js, qui peut être adopté par les autres projets Node, met l’accent sur l’augmentation du nombre de contributeurs et sur leur autonomisation dans la prise de décision, plutôt que de désigner les mainteneurs comme seule autorité approbatrice. Leurs règles de contribution expliquent comment soumettre et valider des pull requests, comment consigner des bugs, etc. Les mainteneurs Node.js ont constaté qu’adopter de meilleures règles les avait aidés à gérer leur charge de travail et à faire évoluer leur communauté vers un projet plus sain et actif.

Photo par Jez Nicholson (CC BY-SA 2.0)

Dans un premier temps, il y a des recherches à faire pour déterminer quels projets doivent avancer. Autrement dit, à quoi ressemble un « projet à succès », aussi bien en termes de financement et de modèles de gouvernance, que dans l’équilibre à trouver entre mainteneurs, contributeurs et usagers ! La réponse peut varier en fonction des différents types de projets et de leur ampleur.

Encourager les standards communs dans les projets open source

Bien que GitHub soit en train de devenir une plateforme standard pour la collaboration sur le code, de nombreux aspects des projets open source ne sont pas encore standardisés, notamment l’ampleur et la richesse de la documentation, des licences et des guides de contribution, ainsi que le style de code et le formatage.
Encourager l’adoption de standards de projets pourrait faciliter, pour les mainteneurs, la gestion des contributions, tout en réduisant pour les contributeurs les obstacles à la participation.

Parmi les exemples de standardisation croissante, on trouve le code de conduite, qui est un règlement détaillant les attentes en termes d’attitude et de communication.
Ces dernières années, des codes de conduite ont été adoptés par un nombre croissant de communautés de projets, notamment Node.js, Django et Ruby. Bien que le processus d’adoption ait pu donner lieu à d’intenses débats au sein de certaines communautés, leur prolifération révèle un intérêt croissant pour la responsabilisation du comportement des communautés.

Augmenter le nombre de contributeurs et contributrices open source

Comme nous l’avons évoqué dans un chapitre précédent de ce rapport, l’industrie du logiciel est florissante, avec un nombre croissant de nouveaux développeurs mais aussi d’autres talents variés : il y a du travail à faire pour encourager ces nouveaux arrivants à contribuer à l’open source. Augmenter le nombre de contributeurs permet aux projets open source d’être plus durables, car davantage de personnes participent à leur développement. Permettre à davantage de personnes de contribuer à l’open source accroît également l’empathie et la communication entre les « utilisateurs » de l’open source et les projets dont ils dépendent.

« Your First PR » (« votre première PR », PR pour Pull Request, NdT) est un exemple d’initiative, développée par la programmeuse Charlotte Spencer, qui aide les nouveaux venus à effectuer leur première contribution à l’open source. « First Timers Only » (Réservé aux débutants) et « Make a Pull Request » (Faites une pull request) sont deux autres exemples de ressources populaires qui introduisent les nouveaux venus à l’open source. Certains projets open source utilisent également des étiquettes telles que « first bug » ou « contributor friendly » pour signaler les problèmes susceptibles d’être résolus par des contributeurs moins expérimentés. Il serait également bénéfique d’encourager les contributions à l’open source autres que le code, comme la rédaction de documentation technique, la gestion des tâches et des flux de travail, ou la création d’un site internet pour le projet.

En plus de l’augmentation de la proportion de techniciens talentueux contribuant à l’open source existe la possibilité de puiser dans un groupe de contributeurs plus large. Faire en sorte que les non-anglophones se sentent bienvenus dans les communautés open source, par exemple, pourrait rendre la technologie plus accessible à travers le monde. Et comme beaucoup de recruteurs utilisent les travaux open source comme un portfolio au moment d’embaucher un développeur, une communauté open source plus diverse encouragerait l’apparition d’un personnel technique globalement plus inclusif.

Améliorer les relations entre projets et acteurs extérieurs

Les entreprises sont une pièce incontournable de l’écosystème open source, et leur rôle ne fait que gagner en importance à mesure que davantage d’entre elles adoptent les logiciels open source. Faciliter la collaboration entre entreprises et projets, ainsi qu’aider les entreprises à comprendre les besoins des communautés open source, pourrait débloquer le soutien des entreprises susceptibles de devenir mécènes ou promoteurs de l’open source.

Selon l’étude annuelle des entreprises open source réalisée par Black Duck, seulement 27 % des entreprises ont un règlement formel concernant les contributions de leurs employés à l’open source. Clarifier la possibilité ou non pour les employés de contribuer à l’open source sur leur temps de travail, et les encourager à le faire, pourrait grandement améliorer le soutien des entreprises aux projets open source.

En 2014, un groupement d’entreprises a fondé le TODO Group, pour partager les bonnes pratiques autour de la participation corporative à l’open source. Parmi les membres de ce groupe, on trouve Box, Facebook, Dropbox, Twitter et Stripe. En mars 2016, le TODO Group a annoncé qu’il serait hébergé par la Fondation Linux en tant que projet collaboratif.

Les entreprises peuvent également fournir un soutien financier aux projets, mais il est parfois difficile pour elles de trouver comment formaliser leur mécénat. Créer des budgets dédiés au mécénat en direction des équipes d’ingénieurs ou des employés, ou encore créer des documents permettant aux projets de « facturer » plus facilement leurs services aux entreprises, sont autant d’initiatives qui pourraient augmenter les contributions financières à l’open source.

Poul-Henning Kamp, par exemple, travaille sur un projet open source nommé Varnish, utilisé par un dixième des sites les plus visités d’internet, notamment Facebook, Twitter, Tumblr, The New York Times et The Guardian. Pour financer ce travail, il a créé la Varnish Moral License pour faciliter la sponsorisation du projet par les entreprises.

Même si en pratique la relation est un mécénat, Poul Henning utilise une terminologie familière aux entreprises, avec des termes tels que « facturation » et « licences », pour réduire les obstacles à la participation.

Augmenter le soutien aux compétences diverses et aux fonctions hors-codage

Dans un passé pas si lointain, les startups de logiciels étaient fortement centrées sur les compétences techniques. Les autres rôles, comme le marketing et le design, étaient considérés comme secondaires par rapport au code. Aujourd’hui, avec la création et la consommation rapide de logiciels, cette conception ne tient plus. Les startups sont en concurrence pour capter l’attention de leurs clients. L’identité de la marque est devenue l’un des principaux facteurs de différenciation.

Ces cinq dernières années ont été celles de l’essor du développeur full stack (polyvalent) : des développeurs plus généralistes que spécialisés, capables de travailler sur plusieurs domaines d’un logiciel complexe, et qui sont susceptibles d’avoir des compétences dans la conception et la production. Les équipes de développement sont plus soudées, elles utilisent les méthodes agiles avec des approches de conception d’architecture logicielle (où le livrable est élaboré en faisant des navettes entre les équipes de techniciens, designers et commerciaux), plutôt qu’une approche en cascade (où chaque équipe apporte sa pièce à l’édifice avant de la transmettre au groupe de travail suivant).

Les projets open source ont connu peu d’évolutions de ce genre, malgré notre dépendance croissante à leurs logiciels. On comprend aisément que le code soit au cœur d’un projet open source, il est en quelque sorte le « produit final » ou le livrable. Les fonctions relatives à la gestion de la communauté, à la documentation, ou à la promotion du projet, qui sont la marque d’une organisation saine et durable, sont moins valorisées. Il en découle que les projets sont déséquilibrés. Beaucoup de choses pourraient être entreprises pour financer et soutenir les contributions autres que le code, des dons en nature pour payer les serveurs par exemple, ou des avantages comme une assurance maladie. Disposer de soutiens de ce type permettrait de réduire notablement la charge des développeurs.