Mets ta carte pour contribuer au jeu

C’est quoi les métacartes ? Un jeu de fiches contenant l’essentiel sur un sujet et connectées à une ressource en ligne via un QR code. C’est Mélanie Lacayrouze et Lilian Ricaud, qui s’en occupent…

… et qui d’ailleurs viennent de publier sur leur site l’article que nous reproduisons ci-dessous. On vous en a déjà parlé dans cet article car Framasoft est fier de soutenir ce projet qui a un intérêt pédagogique évident pour tous ceux et toutes celles qui veulent aider à se réapproprier le numérique.

Le jeu de métacartes vu par David Revoy
Le jeu de métacartes vu par David Revoy

Les enjeux du numérique

La question de l’impact du numérique sur nos vies est de plus en plus cruciale. Les modèles économiques actuels tendent à favoriser des modèles prédateurs et manipulateurs. Il y a plusieurs enjeux:

  • Sensibiliser et former les citoyens aux enjeux d’un numérique éthique,
  • Redonner aux citoyens et collectifs du pouvoir d’agir,
  • Redonner du sens à nos usages.

Un outil de médiation

Pour cela nous travaillons depuis 2019 à la création d’un outil à destination des médiateurs numériques formels ou informels : les métacartes Numérique Éthique. Ce travail s’appuie notamment sur notre expérience de formateurs Animacoop et se fait en lien avec le Collectif Inter Animacoop, l’association Framasoft et de nombreux réseaux formels ou informels.

Notre objectif est d’aider les collectifs à se sensibiliser aux questions des libertés, de la surveillance, les faire réfléchir à leurs pratiques et leur proposer des alternatives respectueuses des usagers.

Les métacartes, outil convivial

Comme pour le jeu Faire Ensemble, cet outil consiste en un jeu de cartes papier reliées à une plateforme numérique par des QR codes.

L’emploi de cartes permet un usage par différents points d’entrée lors d’ateliers en présentiel, tandis que la ressource numérique offre un accès à des informations plus complètes et remises régulièrement à jour.

 

un exemple de métacartes
un exemple de métacartes

État du projet

Après plusieurs mois de travail, un questionnaire, des entretiens utilisateurs, des ateliers, de la recherche, compilation et rédaction, une première version du jeu a été produite (voir un résumé sur le Framablog).

Cette première version a été mise à disposition en ligne sur un espace de travail collaboratif (wiki) : https://metacartes.net/

La dernière fois que nous avions donné des nouvelles du jeu Numérique Éthique, nous nous préparions à lancer un système de pré-ventes pour soutenir le travail ainsi que de nouveaux travaux sur le jeu notamment la mise à disposition de prototypes à tester auprès de médiateurices.

Il ne vous aura pas échappé que les derniers mois ont été légèrement chamboulés par le passage d’une “petite bête” particulièrement adaptée à nos modes de vies.

De notre côté, en plus des perturbations dans nos activités professionnelles, il a été difficile de continuer comme si de rien n’était et nous nous sommes beaucoup interrogés sur le sens de ce que nous faisons, pourquoi nous le faisions et à quel monde nous voulions contribuer.

Pour résumer, nous développons des outils pédagogiques qui redonnent du pouvoir d’agir et du sens à nos actions.

Après avoir pris ce temps important, nous nous sommes remis à l’ouvrage pour préparer la suite.

Numérique éthique, prochaines étapes

Alors que la situation commence à amorcer un retour à “l’anormale” pre-covid, il nous semble qu’avoir des retours de terrain, en particulier des retours d’ateliers avec des objets passant de mains en mains ne sera pas possible avant un certain temps.

Comme vous pouvez le voir sur le visuel ci-dessous, nous avons décalé nos plans de quelques mois.

  • Juin 2020 : finalisation de prototypes imprimables. Dans un premier temps nous allons consolider les contenus existants et produire des prototypes imprimables que nous mettrons à disposition afin d’avoir des retours de terrain. Nous avons déjà contact avec plusieurs réseaux de médiation intéressés.
  • À partir de fin août : ateliers sur le terrain et sprints d’écriture : dans un deuxième temps qui va de la rentrée jusqu’au début de l’année prochaine nous collecterons des retours d’usages et améliorerons le jeu et les contenus via des sprints d’écriture mensuels, à distance, de deux heures à chaque fois. L’objectif est de finaliser le choix des cartes, d’affiner les contenus destinés aux cartes et la ressource en ligne qui l’accompagne et de vérifier la cohérence de l’ensemble en fonction des retours. Cette phase est la plus importante en termes de charge de travail et nous nous sommes donné le temps de bien faire les choses.
  • Début 2021 : conception des modèles d’impression sous Scribus : ces modèles seront destinés à l’imprimeur, mais aussi mis à disposition en libre téléchargement. Ayant déjà de l’expérience avec le jeu de cartes précédent, nous sommes à l’aise sur cette partie-là. En parallèle, nous serons en contact avec l’imprimeur pour lancer la dernière partie
  • Mars/avril 2021 : impression et envoi des jeux : là aussi nous avons acquis une certaine expérience et nous sommes accompagnés par une consultante en impression (merci à elle pour son précieux travail !) donc cela aussi devrait rouler sans surprises.

Un projet contributif

Pour rappel, Métacartes n’est pas une grosse machine mais une (toute) petite structure : nous sommes deux à temps partiel sur le projet. Et nous avons besoin de vous. Si le projet vous inspire et que vous souhaitez le voir aboutir, il existe 4 possibilités de contribuer :

  1. Faire connaître le projet : en particulier auprès d’usagers mais aussi ce qui nous aiderait beaucoup, de sponsors ou acheteurs potentiels.
  2. Tester et faire de retours : nous voulons le meilleur jeu possible et pour cela nous voulons le créer avec vous. C’est pourquoi nous mettrons à disposition les prototypes et que nous prendrons le temps de recevoir des retours, via le site ou les sprints d’écriture.
  3. Participer aux sprints d’écriture : pour recevoir vos retours et avancer efficacement sur le développement malgré les contraintes de temps et de distance, nous proposerons des temps courts de travail collectif tous les mois. Cela pourrait être pour les participants l’occasion d’échanger sur le sujet du Numérique éthique, mais aussi de tester des formats d’animation.
  4. Pré-commander le jeu : pour sécuriser notre travail nous envisagions initialement une jauge minimale à atteindre avant de continuer le développement. Mais après plusieurs retards, nous voulons avancer sans attendre et comme les collègues de Framasoft, il nous semblait indécent de jouer sur les ficelles habituelles du financement participatif (on veut sortir le jeu quoi qu’il arrive et on ne veut pas faire semblant de vous jouer du «suspense»…).

Nous cherchons notamment des réseaux ou des structures qui auraient besoin d’un tel outil : fédération d’éducation populaire, collectifs de tiers-lieux, réseaux de bibliothèques et médiathèques, réseaux de formation au numérique…

Parmi nos premiers soutiens, l’association Framasoft qui nous aide en rendant visible le projet, en apportant son temps et son savoir-faire pour contribuer et qui va pré-acheter un lot de ces Métacartes Numérique Éthique pour les distribuer aux médiateurs amateurs et médiatrices professionnelles qu’iels croisent régulièrement.

Des pré-commandes pour financer le travail restant

“Quand c’est gratuit, c’est vous le produit”. Notre modèle à nous va être basé sur les pré-commandes. Voici ci-dessous un petit résumé visuel de l’utilisation des fonds.

À noter que pour l’an prochain l’hébergement et le nom de domaine ne seront plus un coût pour nous, grâce à Gandi qui soutient le projet.

Par ailleurs, un coût invisible et difficile à évaluer est le maintien et l’entretien de la ressource sur le long terme, choses auxquelles nous réfléchissons aussi pour assurer sa durabilité.

Allons-y !

Nous avons donc décidé de reprendre le développement de la prochaine version dès maintenant (même si en pratique ça ne s’est jamais totalement arrêté) et de proposer des pré-achats via notre boutique en ligne.

Le jeu sera expédié au printemps prochain ce qui peut sembler loin (même à nous). Mais nous préférons le modèle durable de la “stay up” qui grandit organiquement en harmonie avec son écosystème à celui de la startup à la croissance artificielle nourrie aux hormones et à l’urgence.

Nous avons besoin de vous !

Comme nous l’avons dit dans notre manifeste, nous développons des outils pédagogiques qui redonnent du pouvoir d’agir et du sens à nos actions et nous le faisons en créant des communs en co-construction avec un archipel de partenaires.

Avec notre prochain jeu nous voulons produire et mettre à disposition un outil qui aide les individus et les collectifs à se sensibiliser aux questions des libertés, de la surveillance, les faire réfléchir à leurs pratiques et leur proposer des alternatives respectueuses des usagers.

Si vous partagez cette vision et souhaitez nous aider à faire aboutir le projet vous pouvez donc dès maintenant pré-acheter sur la boutique en ligne pour soutenir le projet et recevoir le jeu en avant-première.

Ils nous soutiennent

logo partenaire gandi.net




Les Métacartes Numérique Éthique : un outil qui fait envie !

Les médiatrices du numérique, les animateurs d’ateliers-découverte du libre et les pros de la formation le savent : nous manquons d’outils pour décrire l’intérêt, les notions et les pratiques qui permettent de mettre plus d’éthique dans nos vies numériques.

Cet article fait partie des « Carnets de voyage de Contributopia ». D’octobre à décembre 2019, nous y ferons le bilan des nombreuses actions que nous menons, lesquelles sont financées par vos dons (qui peuvent donner lieu à une réduction d’impôts pour les contribuables français). Si vous le pouvez, pensez à nous soutenir.

Les Métacartes, un outil physique et numérique

En septembre 2018, nous vous présentions les Métacartes « Faire ensemble », un outil de médiation pour animer des rencontres collaboratives et contributives.

Le principe des Métacartes, c’est d’avoir un paquet de cartes qui tient dans la poche pour présenter rapidement et dans le plaisir un ensemble d’outils. L’astuce, c’est que chacune de ces cartes est liée à une page web où l’on peut prendre la place de décrire plus longuement l’outil en question, de renvoyer à des sources et des ressources, etc.

La métacarte « carte mentale » fait partie du jeu « Faire Ensemble » pour animer vos rencontres collaboratives.

Durant leur financement participatif de septembre dernier, Mélanie et Lilian ont fait une promesse : si iels dépassaient les 200 % de financement, iels s’attelleraient à produire un jeu de Métacartes « Dégooglisons Internet », pour faciliter la présentation d’alternatives aux services des GAFAM.

Avec un projet financé à 269 %, il ne fait aucun doute que nous sommes nombreuses et nombreux à voir le potentiel émancipateur d’un outil tel que les Métacartes… Qui, en plus, sont un Commun de la connaissance, puisque sous licence CC-By-SA ! Il est donc temps de savoir où en sont Mélanie et Lilian sur leur projet de jeu « Dégooglisons Internet » !

Sur le papier aussi, Dégoogliser ne suffit pas !

La promesse, c’était de présenter les 38 services Dégooglisons Internet et quelques notions-clés en un jeu de cartes. Mais se contraindre à cette promesse posait plusieurs problèmes :

  • On centralise l’attention sur Framasoft, plutôt que de montrer la diversité des propositions existantes ;
  • Lister des outils numériques sur des cartes n’était pas résilient puisque si l’outil évoluait (en bien ou en mal) ou disparaissait, les cartes devenaient obsolètes ;
  • Il ne reste que peu de place pour aborder des notions essentielles d’hygiène numérique ;
  • Il manque une entrée partant des besoins et des vécus des personnes qui veulent plus d’éthique dans leur vie numérique.

Dégooglisons Internet, vu par Péhä (CC-By)

Alors certes, Lilian et Mélanie auraient pu décider de faire vite et simple, de se borner à remplir la promesse faite lors du financement participatif, et d’éditer malgré tout un jeu de Métacartes « Dégooglisons Internet ».

Mais ce serait mal connaître le perfectionnisme de ces professionnelles de la formation. Dans leur billet de blog d’août dernier, on peut lire la démarche qui les mène à construire un jeu de Métacartes beaucoup plus ambitieux que prévu, et à en changer le nom.

Découvrez la version 1 des métacartes « Numérique Éthique »

Le jeu « Numérique Éthique » s’adresse à toutes les personnes qui font de la médiation au numérique. Que vous soyez libriste dans une install party ou un café vie privée, formatrice aux outils numériques, médiateur en tiers-lieu, etc. ce jeu se veut un outil d’éducation populaire à la littéracie numérique.

Mélanie et Lilian ont procédé à de nombreuses rencontres et échanges pour mieux comprendre les besoins et les attentes des personnes qui utiliseraient un tel jeu.

Le résultat ? Une première version (pour l’instant) intégralement numérique, avec trois types de cartes pour donner trois portes d’entrées dans l’échange sur les pratiques numériques :

  • Les cartes Usages (exemple « Sondage ») qui présentent plusieurs types d’usages appuyés par des outils en ligne. Pour chacun des usages, ces cartes précisent les risques d’un outil privateur (Doodle, par exemple) et proposent une alternative éthique (ici, le logiciel Framadate) ;
  • Les cartes Histoires où l’on se raconte une petite histoire pour provoquer des discussions afin de questionner ensemble nos pratiques et nos croyances sur le monde numérique actuel (par exemple « je n’ai rien à cacher ») ;
  • Les cartes Concepts pour avoir sous la main les notions essentielles à des pratiques éthiques dans sa vie numérique (par exemple, l’interopérabilité).

Cliquez sur ces cartes pour découvrir le jeu « Numérique Éthique »

3 questions à Mélanie et Lilian sur l’avenir de ces cartes

Vous l’imaginez bien, aborder autant de notions avec ces 3 entrées dans un seul jeu de cartes, c’est clairement plus ambitieux que de décrire les services « Dégooglisons Internet » ! Si cette première version du jeu Numérique Éthique est déjà une belle proposition, il manque encore du temps et du travail pour parvenir à un jeu à imprimer en masse…

Alors pour savoir comment nous pouvons y parvenir, donnons la parole à Mélanie et Lilian !

Vous nous présentez aujourd’hui une première version, qui est l’aboutissement de votre travail financé par le financement participatif de 2018. Pourquoi ne pas avoir directement proposé une impression de cette version 1 ?

Enfin en tant que professionnel⋅les de la formation, on sait que l’outil a besoin d’être testé et approfondi. Par exemple nous avons produit les textes et visuels pour plus de 50 cartes, mais il y a sûrement des choses à revoir au niveau de la rédaction ou des ambiguïtés à lever. Avec du recul on trouvera peut-être qu’il faut ajouter certaines cartes ou en enlever d’autres. Pour notre jeu précédent Il y a eu au moins 5 versions de prototypes testés avec des usagers avant de produire la version définitive !

Or comme tout travail de mise en page, faire des modèles propres pour 60 cartes recto/verso ça prend du temps, beaucoup de temps !

En plus il faut savoir que par souci de cohérence, et pour montrer ce qu’on pouvait faire avec du libre, nous avons choisi de travailler avec Scribus pour produire nos modèles. C’est un choix mais du coup, ça rajoute du travail parce que même si c’est un bon outil dans l’absolu, son ergonomie rend parfois le travail plus long qu’avec ses équivalents propriétaires.

Donc avant de faire des modèles imprimables, on préfère s’assurer que les contenus que l’on a produits sont suffisamment pertinent pour mériter d’être imprimés.

Nous voulons donc continuer à améliorer les contenus, mais en parallèle, il nous semble intéressant de mettre à disposition cette première version pour que d’autres puissent déjà nous faire des retours, des propositions…

Dès maintenant ceux qui le souhaitent peuvent accéder aux contenus en ligne (c’est le cas depuis le début du projet) et nous allons essayer de proposer au cours des prochains mois des prototypes imprimables mais avec juste un graphisme sommaire.

Cliquez sur les cartes pour découvrir le jeu « Numérique Éthique »

Vous voulez approfondir le travail sur les métacartes Numérique Éthique en 2020… Mais concrètement, qu’est-ce qu’il manque à faire pour parvenir à une version 2 satisfaisante ? À quoi elle ressemblera ?

En fait quand nous avons commencé à travailler sur le projet nous nous sommes rendu compte qu’il y avait énormément d’outils qu’il serait intéressant de rendre visibles mais que l’on ne pourrait pas tout mettre dans un seul jeu.

Pour la première version, nous avons choisi de focaliser sur un usage plutôt professionnel et collaboratif, domaine que nous connaissons le mieux. En plus, dans l’idée d’aller vers une société avec plus d’éthique, il nous a semblé intéressant de commencer par outiller les organisations et les collectifs.

Ensuite, plutôt que de faire un outil pour le grand public, nous avons choisi de faire un outil pour celles et ceux qui travaillent avec le grand public. Nous avons donc plutôt pensé le jeu pour un public de médiateurs numériques, qu’ils jouent ce rôle officiellement ou sans titre particulier.

Avec ces idées en tête, nous avons imaginé plusieurs portes d’entrée dans l’outil. Un exemple : disons que dans mon asso, je suis un peu la geek qui installe des outils pour les autres et que je suis déjà sensibilisée aux enjeux éthiques du numérique. Je cherche une alternative à mon outil propriétaire, je vais explorer les cartes usages et trouver celle qui correspond à mon besoin. C’est un peu ce que propose la page Degooglisons Internet qui liste des services libres sauf qu’ici, au lieu d’avoir une liste web, on a des cartes qui permettent d’explorer et de classer l’information d’une autre manière. Dans ce cas,  on se sert de la page web associé à la carte pour proposer une alternative recommandée (en indiquant qui recommande) et en proposant des liens vers différents fournisseurs de services pour ne pas recentraliser uniquement sur Frama.

Autre scénario, je suis un médiateur qui veut sensibiliser mon public à l’importance de protéger sa vie privée des GAFAM. Je vais choisir une histoire à raconter parmi les cartes du même nom pour provoquer des réactions et des discussions. À partir de là, une fois que j’ai suscité de l’intérêt, je vais pouvoir m’appuyer sur les cartes concepts pour parler des notions. Le fait d’avoir une carte me permet de ne pas oublier des infos importantes et de retrouver des chiffres et des informations sourcées grâce à la page web.

Au final ce que nous voulons c’est un outil support simple et convivial qui fonctionne pour différents types de publics.

Voila quelques exemples de ce que nous imaginons comme premiers usages, mais pour vérifier que ça marche et qu’il y a une vraie cohérence entre les différentes entrées, il va nous falloir faire un gros travail sur la pédagogie de l’outil en le testant auprès de vrais usagers, que ce soit par des questionnaires ou des ateliers. Il nous reste aussi du travail de rédaction sur les fiches en ligne : certaines sont très complètes, mais d’autres nécessitent encore du travail de recherche et de synthèse.

Cliquez sur les cartes pour découvrir le jeu « Numérique Éthique »

Tout cela représente une grosse somme de travail, donc de temps disponible, donc d’argent pour financer votre temps et votre travail… Comment comptez-vous financer tout cela ? Avec une nouvelle collecte ?

Ce que nous imaginons pour financer le travail de conception/rédaction qui reste, c’est de demander à des contributeurs de nous soutenir en exprimant leur intérêt pour leur jeu via un système de prévente. Pour l’instant le temps que nous y avons passé était passionnant et bénévole, mais nous ne pouvons pas repartir pour 6 mois avec ce fonctionnement : un peu de revenus et surtout pré-financer l’impression du futur jeu est indispensable pour nous sécuriser dans ce projet !

Avec le temps ainsi acquis nous affinerons la ressource en ligne (sources, rédaction, …), nous pourrons prendre le temps d’organiser des ateliers de prototypage auprès de médiateurs, de facilitateurs, et nous lancerons le travail de conception des cartes sous Scribus…

Et bien sûr la cagnotte servira à imprimer les cartes.

On souhaite surtout lancer cet appel à des réseaux qui seraient intéressés pour commander des lots de jeux de cartes ( >10 jeux). Si vous faites partie ou connaissez des réseaux associatifs, réseaux de médiateurs numériques, éducation populaire, ESS… Si vous pensez que c’est un bon outil, qu’il peut vous être utile à vous ou à des réseaux que vous connaissez vous pouvez nous en faire part en écrivant à contact@metacartes.cc

Nous pensons lancer un système de pré-ventes dans le début de l’année 2020 et nous vous informerons alors du lancement à ce moment là. Pour rester informés, vous pouvez vous inscrire sur le site.

Les métacartes, vues par David Revoy (CC-By).

Contribuons pour obtenir une version 2 imprimée d’ici fin 2020 !

Chez Framasoft, nous savons qu’il y a un très gros besoin d’outils de médiation aux pratiques numériques éthiques, cela fait même partie des actions de Contributopia ! Nous voulons vraiment que cette version 2 détaillée et imprimée voit le jour, donc nous nous engageons :

  • à libérer de notre temps et de notre savoir-faire pour contribuer à cette version 2 avec Mélanie et Lilian ;
  • à pré-acheter un lot de ces Métacartes Numérique Éthique pour les distribuer aux médiateurs amateurs et médiatrices professionnelles que nous croisons régulièrement.

De votre côté, vous connaissez peut-être des structures qui auraient besoin d’un tel outil : fédération d’éducation populaire, collectifs de tiers-lieux, réseaux de bibliothèques et médiathèques, réseaux de formation au numérique, etc.

Si c’est le cas, vous pouvez leur communiquer cet article car ces structures peuvent financer la production de cette version 2 en pré-achetant un lot de métacartes Numérique Éthique. Il suffit qu’elles contactent Mélanie et Lilian sur l’email contact@metacartes.cc, pour qu’ensemble, nous contribuions à l’aboutissement un nouvel outil commun.

Nous n’hésiterons pas à vous tenir au courant des avancées et des manières de contribuer à l’évolution de ce projet tout au long de 2020 sur le framablog.

 

Rendez-vous sur la page des Carnets de Contributopia pour y découvrir d’autres articles, d’autres actions que nous avons menées grâce à vos dons. Si ce que vous venez de lire vous plaît, pensez à soutenir notre association, qui ne vit que par vos dons. Framasoft étant reconnue d’intérêt général, un don de 100 € d’un contribuable français reviendra, après déduction, à 34 €.

Soutenir Framasoft

Illustration d’entête : CC-By David Revoy




Désinformation, le rapport – 3

La traduction suivante est la suite et la continuation du travail entamé la semaine dernière sur le long rapport final élaboré par le comité « Digital, Culture, Media and Sport » du Parlement britannique, publié le 14 février dernier, sur la désinformation et la mésinformation.

Maintenant que le décor est posé, on aborde les questions réglementaires. Après avoir clairement défini ce qu’est une fake news, que nous avons traduit par « infox » et que les auteurs regroupent sous le terme plus précis de « désinformation », il est question de définir une nouvelle catégorie de fournisseurs de service pour caractériser leur responsabilité dans les préjudices faits à la société ainsi que des solutions pour protéger le public et financer l’action des structures de contrôle.

Le groupe Framalang a en effet entrepris de vous communiquer l’intégralité du rapport en feuilleton suivant l’avancement de la traduction.

Vous trouverez le texte intégral en suivant ce lien vers le PDF original (3,8 Mo).

La traduction est effectuée par le groupe Framalang, avec l’aide de toutes celles et ceux qui veulent bien participer et pour cet opus :

Traducteurs : Khrys, Lumibd, Maestox, simon, Fabrice, serici, Barbara, Angie, Fabrice, simon

La réglementation, le rôle, la définition et la responsabilité juridique des entreprises de technologie

Définitions

11. Dans notre rapport intermédiaire, nous avons désavoué le terme d’« infox » puisqu’il a « pris de nombreux sens, notamment une description de toute affirmation qui n’est pas appréciée ou en accord avec l’opinion du lecteur » et nous avons recommandé à la place les termes de « mésinformation » ou de « désinformation ». Avec ces termes viennent « des directives claires à suivre pour les compagnies, organisations et le Gouvernement  » liées à «  une cohérence partagée de la définition sur les plateformes, qui peuvent être utilisées comme la base de la régulation et de l’application de la loi »1.

12. Nous avons eu le plaisir de voir que le Gouvernement a accepté notre point de vue sur le fait que le terme « infox » soit trompeur, et ait essayé à la place d’employer les termes de « désinformation » et de « mésinformation ». Dans sa réponse, le gouvernement a affirmé :

Dans notre travail, nous avons défini le mot « désinformation » comme la création et le partage délibérés d’informations fausses et/ou manipulées dans le but de tromper et d’induire en erreur le public, peu importe que ce soit pour porter préjudice, ou pour des raisons politiques, personnelles ou financières. La « mésinformation » se réfère au partage par inadvertance de fausses informations2.

13. Nous avons aussi recommandé une nouvelle catégorie d’entreprises de réseaux sociaux, qui resserrent les responsabilités des entreprises de technologie et qui ne sont pas forcément « une plateforme » ou un « éditeur ». le gouvernement n’a pas du tout répondu à cette recommandation, mais Sharon White, Pdg de Of.com a qualifié cette catégorie de « très soignée » car les « plateformes ont vraiment des responsabilités, même si elles ne génèrent pas les contenus, concernant ce qu’elles hébergent et promeuvent sur leur site ».3.

14. Les entreprises de réseaux sociaux ne peuvent se cacher derrière le fait qu’elles seraient simplement une plateforme, et maintenir qu’elles n’ont elles-mêmes aucune responsabilité sur la régulation du contenu de leurs sites. Nous répétons la recommandation de notre rapport provisoire, qui stipule qu’une nouvelle catégorie d’entreprises technologiques doit être définie qui renforcera les responsabilités des entreprises technologiques et qui ne sont pas forcément « une plateforme » ou un « éditeur ». Cette approche voudrait que les entreprises de technologie prennent leur responsabilité en cas de contenu identifié comme étant abusif après qu’il a été posté par des utilisateurs. Nous demandons au gouvernement de prendre en compte cette nouvelle catégorie de compagnies technologiques dans son livre blanc qui va paraître prochainement.

Préjudices et réglementation en ligne

15. Plus tôt dans le cadre de notre enquête, nous avons écouté le témoignage de Sandy Parakilas et Tristan Harris, qui étaient tous deux à l’époque impliqués dans le Center for Human Technology, situé aux États-Unis. Le centre a compilé un « Recueil de Préjudices » qui résume les « impacts négatifs de la technologie qui n’apparaissent pas dans les bilans des entreprises, mais dans le bilan de la société ».4 Le Recueil de Préjudices contient les impacts négatifs de la technologie, notamment la perte d’attention, les problèmes de santé mentale, les confusions sur les relations personnelles, les risques qui pèsent sur nos démocraties et les problèmes qui touchent les enfants.5.

16. La prolifération des préjudices en ligne est rendu plus dangereuse si on axe des messages spécifiques sur des individus suite à des « messages micro-ciblés », qui jouent souvent sur les opinions négatives qu’ont les gens d’eux-mêmes et des autres et en les déformant. Cette déformation est rendue encore plus extrême par l’utilisation de « deepfakes » 6 audio et vidéos qui sonnent et ressemblent à une personne existante tenant des propos qui ne lui appartiennent pas.7 Comme nous l’avons dit dans notre rapport intermédiaire, la détection de ces exemples ne deviendra que plus complexe et plus difficile à démasquer au fur et à mesure de la sophistication des logiciels 8.

17. Le ministre de la santé, le député Hon Matthew Hancock, a récemment mis en garde les sociétés informatiques, notamment Facebook, Google et Twitter, qu’elles étaient en charge de la suppression des contenus inappropriés, blessants suite à la mort de Molly Russel, qui à 14 ans s’est suicidée en novembre 2017. Son compte Instagram contenait du contenu en lien avec la dépression, l’auto-mutilation et le suicide. Facebook, propriétaire d’Instagram, s’est déclaré profondément désolé de l’affaire.9 Le directeur d’Instagram, Adam Mosseri, a rencontré le secrétaire de la Santé début février 2019 et déclaré qu’Instagram n’était pas « dans une situation où il était nécessaire de traiter le problème de l’auto-mutilation et du suicide » et que cela revenait à arbitrer entre « agir maintenant et agir de manière responsable » 10

18. Nous relevons également que dans son discours du 5 février 2019, la députée Margot James, ministre du numérique dans le département du numérique, de la culture, des médias et du sport a exprimé ses craintes :

La réponse des principales plateformes est depuis trop longtemps inefficace. Il y a eu moins de 15 chartes de bonne conduite mises en place volontairement depuis 2008. Il faut maintenant remettre absolument en cause un système qui n’a jamais été suffisamment encadré par la loi. Le livre blanc, que le DCMS produit en collaboration avec le ministère de l’intérieur sera suivi d’une consultation durant l’été et débouchera sur des mesures législatives permettant de s’assurer que les plateformes supprimeront les contenus illégaux et privilégieront la protection des utilisateurs, particulièrement des enfants, adolescents et adultes vulnérables. 11

Le nouveau Centre pour des algorithmes et des données éthiques

19. Comme nous l’avons écrit dans notre rapport intermédiaire, les sociétés fournissant des réseaux sociaux tout comme celles fournissant des moteurs de recherche utilisent des algorithmes ou des séquences d’instructions pour personnaliser les informations et autres contenus aux utilisateurs. Ces algorithmes sélectionnent le contenu sur la base de facteurs tels que l’activité numérique passée de l’utilisateur, ses connexions sociales et leur localisation. Le modèle de revenus des compagnies d’Internet repose sur les revenus provenant de la vente d’espaces publicitaires et parce qu’il faut faire du profit, toute forme de contenu augmentant celui-ci sera priorisé. C’est pourquoi les histoires négatives seront toujours mises en avant par les algorithmes parce qu’elles sont plus fréquemment partagées que les histoires positives.12

20. Tout autant que les informations sur les compagnies de l’internet, les informations sur leurs algorithmes doivent être plus transparentes. Ils comportent intrinsèquement des travers, inhérents à la façon dont ils ont été développés par les ingénieurs ; ces travers sont ensuite reproduits diffusés et renforcés. Monica Bickert, de Facebook, a admis « que sa compagnie était attentive à toute forme de déviance, sur le genre, la race ou autre qui pourrait affecter les produits de l’entreprise et que cela inclut les algorithmes ». Facebook devrait mettre plus d’ardeur à lutter contre ces défauts dans les algorithmes de ses ingénieurs pour éviter leur propagation.
13

21. Dans le budget de 2017, le Centre des données Ethiques et de l’innovation a été créé par le gouvernement pour conseiller sur « l’usage éthique, respectueux et innovant des données, incluant l’IA ». Le secrétaire d’état a décrit son rôle ainsi:

Le Centre est un composant central de la charte numérique du gouvernement, qui définit des normes et des règles communes pour le monde numérique. Le centre permettra au Royaume-Uni de mener le débat concernant l’usage correct des données et de l’intelligence artificielle.14

22. Le centre agira comme un organisme de recommandation pour le gouvernement et parmi ses fonctions essentielles figurent : l’analyse et l’anticipation des manques en termes de régulation et de gestion; définition et orchestration des bonnes pratiques, codes de conduites et standards d’utilisations de l’Intelligence Artificielle; recommandation au gouvernement sur les règles et actions réglementaires à mettre en place en relation avec l’usage responsable et innovant des données. 15

23. La réponse du gouvernement à notre rapport intermédiaire a mis en lumière certaines réponses à la consultation telle que la priorité de l’action immédiate du centre, telle que « le monopole sur la donnée, l’utilisation d’algorithme prédictifs dans la police, l’utilisation de l’analyse des données dans les campagnes politiques ainsi que l’éventualité de discrimination automatisée dans les décisions de recrutement ». Nous nous félicitons de la création du Centre et nous nous réjouissons à la perspective d’en recueillir les fruits de ses prochaines travaux.

La loi en Allemagne et en France

24. D’autres pays ont légiféré contre le contenu malveillant sur les plateformes numériques. Comme nous l’avons relevé dans notre rapport intermédiaire, les compagnies d’internet en Allemagne ont été contraintes initialement de supprimer les propos haineux en moins de 24 heures. Quand cette auto-régulation s’est montrée inefficace, le gouvernement allemand a voté le Network Enforcement Act, aussi connu sous le nom de NetzDG, qui a été adopté en janvier 2018. Cette loi force les compagnies technologiques à retirer les propos haineux de leurs sites en moins de 24 heures et les condamne à une amende de 20 millions d’euros si ces contenus ne sont pas retirés16. Par conséquent, un modérateur sur six de Facebook travaille désormais en Allemagne, ce qui prouve bien que la loi peut être efficace.17.

25. Une nouvelle loi en France, adoptée en novembre 2018 permet aux juges d’ordonner le retrait immédiat d’articles en ligne s’ils estiment qu’ils diffusent de la désinformation pendant les campagnes d’élection. La loi stipule que les utilisateurs doivent recevoir « d’informations qui sont justes, claires et transparentes » sur l’utilisation de leurs données personnelles, que les sites doivent divulguer les sommes qu’elles reçoivent pour promouvoir des informations, et la loi autorise le CSA français à pouvoir suspendre des chaînes de télévision contrôlées ou sous influence d’un état étranger, s’il estime que cette chaîne dissémine de manière délibérée des fausses informations qui pourraient affecter l’authenticité du vote. Les sanctions imposées en violation de la loi comprennent un an de prison et une amende de 75000 euros18.

Le Royaume-Uni

26. Comme la Commissaire de l’Information du Royaume-Uni, Elisabeth Denham, nous l’a expliqué en novembre 2018, il y a une tension entre le modèle économique des médias sociaux, centré sur la publicité, et les droits humains tels que la protection de la vie privée. « C’est notre situation actuelle et il s’agit d’une tâche importante à la fois pour les régulateurs et le législateur de s’assurer que les bonnes exigences, la surveillance et sanctions sont en place » 19. Elle nous a dit que Facebook, par exemple, devrait en faire plus et devrait faire « l’objet d’une régulation et d’une surveillance plus stricte »20. Les activités de Facebook dans la scène politique sont en augmentation; l’entreprise a récemment lancé un fil d’actualités intitulé « Community Actions » avec une fonctionnalité de pétition pour, par exemple, permettre aux utilisateurs de résoudre des problèmes politiques locaux en créant ou soutenant des pétitions. Il est difficile de comprendre comment Facebook sera capable d’auto-réguler une telle fonctionnalité; plus le problème local va être sujet à controverse et litiges, plus il entrainera de l’engagement sur Facebook et donc de revenus associés grâce aux publicités 21.

Facebook et la loi

27. En dépit de toutes les excuses formulées par Facebook pour ses erreurs passées, il semble encore réticent à être correctement surveillé. Lors de la session de témoignage verbal au « Grand Comité International », Richard Alland, vice-président des solutions politiques de Facebook, a été interrogé à plusieurs reprises sur les opinions de Facebook sur la régulation, et à chaque fois il a déclaré que Facebook était très ouvert au débat sur la régulation, et que travailler ensemble avec les gouvernements seraient la meilleure option possible :

« Je suis ravi, personnellement, et l’entreprise est vraiment engagé, de la base jusqu’à notre PDG — il en a parlé en public — à l’idée d’obtenir le bon type de régulation afin que l’on puisse arrêter d’être dans ce mode de confrontation. Cela ne sert ni notre société ni nos utilisateurs. Essayons de trouver le juste milieu, où vous êtes d’accord pour dire que nous faisons un travail suffisamment bon et où vous avez le pouvoir de nous tenir responsable si nous ne le faisons pas, et nous comprenons quel le travail que nous avons à faire. C’est la partie régulation22. »

28. Ashkan Soltani, un chercheur et consultant indépendant, et ancien Responsable Technologique de la Commission Fédérale du Commerce des USA 23, a questionné la volonté de Facebook à être régulé. À propos de la culture interne de Facebook, il a dit : « Il y a ce mépris — cette capacité à penser que l’entreprise sait mieux que tout le monde et tous les législateurs » 24. Il a discuté de la loi californienne pour la vie privée des consommateurs 25 que Facebook a supporté en public, mais a combattu en coulisses 26.

29. Facebook ne semble pas vouloir être régulé ou surveillé. C’est considéré comme normal pour les ressortissants étrangers de témoigner devant les comités. En effet, en juin 2011, le Comité pour la Culture, les Médias et le Sport 27 a entendu le témoignage de Rupert Murdoch lors de l’enquête sur le hacking téléphonique 28 et le Comité au Trésor 29 a récemment entendu le témoignage de trois ressortissants étrangers 30. En choisissant de ne pas se présenter devant le Comité et en choisissant de ne pas répondre personnellement à aucune de nos invitations, Mark Zuckerberg a fait preuve de mépris envers à la fois le parlement du Royaume-Uni et le « Grand Comité International », qui compte des représentants de neufs législatures dans le monde.

30. La structure managériale de Facebook est opaque pour les personnes extérieures, et semble conçue pour dissimuler la connaissance et la responsabilité de certaines décisions. Facebook a pour stratégie d’envoyer des témoins dont ils disent qu’ils sont les plus adéquats, mais qui n’ont pas été suffisamment informés sur les points cruciaux, et ne peuvent répondre ou choisissent de ne pas répondre à nombre de nos questions. Ils promettent ensuite d’y répondre par lettre, qui —sans surprise— échouent à répondre à toutes nos questions. Il ne fait pas de doute que cette stratégie est délibérée.

Régulateurs britanniques existants

31. Au Royaume-Uni, les principales autorités compétentes — Ofcom, l’autorité pour les standards publicitaires 31, le bureau du commissaire à l’information 32, la commission électorale 33 et l’autorité pour la compétition et le marché 34 — ont des responsabilités spécifiques sur l’utilisation de contenus, données et comportements. Quand Sharon White, responsable de Ofcom, est passé devant le comité en octobre 2018, après la publication de notre rapport intermédiaire, nous lui avons posé la question si leur expérience comme régulateur de diffusion audiovisuelle pourrait être utile pour réguler les contenus en ligne. Elle a répondu :

« On a essayé d’identifier quelles synergies seraient possibles. […] On a été frappé de voir qu’il y a deux ou trois domaines qui pourraient être applicable en ligne. […] Le fait que le Parlement 35 ait mis en place des standards, ainsi que des objectifs plutôt ambitieux, nous a semblé très important, mais aussi durable avec des objectifs clés, que ce soit la protection de l’enfance ou les préoccupations autour des agressions et injures. Vous pouvez le voir comme un processus démocratique sur quels sont les maux que l’on croit en tant que société être fréquent en ligne. L’autre chose qui est très importante dans le code de diffusion audiovisuelle est qu’il explicite clairement le fait que ces choses peuvent varier au cours du temps comme la notion d’agression se modifie et les inquiétudes des consommateurs changent. La mise en œuvre est ensuite déléguée à un régulateur indépendant qui traduit en pratique ces objectifs de standards. Il y a aussi la transparence, le fait que l’on publie nos décisions dans le cas d’infractions, et que tout soit accessible au public. Il y a la surveillance de nos décisions et l’indépendance du jugement 36 ».

32. Elle a également ajouté que la fonction du régulateur de contenu en ligne devrait évaluer l’efficacité des compagnies technologiques sur leurs mesures prises contre les contenus qui ont été signalés comme abusifs. « Une approche serait de se dire si les compagnies ont les systèmes, les processus, et la gouvernance en place avec la transparence qui amène la responsabilité publique et la responsabilité devant le Parlement, que le pays serait satisfait du devoir de vigilance ou que les abus seront traités de manière constante et efficace ».37.

33. Cependant, si on demandait à Ofcom de prendre en charge la régulation des capacités des compagnies des réseaux sociaux, il faudrait qu’il soit doté de nouveaux pouvoirs d’enquête. Sharon White a déclaré au comité « qu’il serait absolument fondamental d’avoir des informations statutaires, réunissant des pouvoirs sur un domaine large ».38.

34. UK Council for Internet Safety(UKCIS) est un nouvel organisme, sponsorisé par le Ministère du Numérique, de la Culture, des Médias et du Sport, le Ministère de l’Éducation et le Ministère de l’Intérieur, il réunit plus de 200 organisations qui ont pour but de garantir la sécurité des enfants en ligne. Son site web affirme « si c’est inacceptable hors ligne, c’est inacceptable en ligne ». Son attention tiendra compte des abus en lignes comme le cyberharcèlement et l’exploitation sexuelle, la radicalisation et l’extrémisme, la violence contre les femmes et les jeunes filles, les crimes motivés par la haine et les discours haineux, et les formes de discrimination vis à vis de groupes protégés par l’Equality Act.39. Guy Parker, Pdg d’Advertising Standards Authority nous a informé que le Gouvernement pourrait se décider à intégrer les abus dans la publicité dans leur définition d’abus en ligne40.

35. Nous pensons que UK Council for Internet Safety devrait inclure dans le périmètre de ses attributions « le risque envers la démocratie » tel qu’identifié dans le « Registre des Préjudices » du Center for Human Technology, en particulier par rapport aux reportages profondément faux. Nous notons que Facebook est inclus en tant que membre d’UKCIS, compte tenu de son influence éventuelle, et nous comprenons pourquoi. Cependant, étant donné l’attitude de Facebook dans cette enquête, nous avons des réserves quant à sa bonne foi des affaires et sa capacité à participer au travail d’UKCIS dans l’intérêt du public, par opposition à ses intérêts personnels.

36. Lorsqu’il a été demandé au Secrétaire du Numérique, de la Culture, des Médias et des Sports, le Très Honorable député Jeremy Wright, de formuler un spectre des abus en ligne, sa réponse était limitée. « Ce que nous devons comprendre est à quel point les gens sont induits en erreur ou à quel point les élections ont été entravées de manière délibérée ou influencée, et si elle le sont […] nous devons trouver des réponses appropriées et des moyens de défense. Cela fait partie d’un paysage bien plus global et je ne crois par que c’est juste de le segmenter41. Cependant, une fois que nous avons défini les difficultés autour de la définition, l’étendue et la responsabilité des abus en ligne, le Secrétaire d’État était plus coopératif lorsqu’on lui a posé la question sur la régulation des compagnies de réseaux sociaux, et a déclaré que le Royaume-Uni devrait prendre l’initia

37. Notre rapport intermédiaire recommandait que des responsabilités juridiques claires soient définies pour les compagnies technologiques, afin qu’elles puissent prendre des mesures allant contre des contenus abusifs ou illégaux sur leurs sites. À l’heure actuelle, il est urgent de mettre en œuvre des règlements indépendants. Nous croyons qu’un Code d’Éthique obligatoire doit être implémenté, supervisé par un régulateur indépendant, définissant ce que constitue un contenu abusif. Le régulateur indépendant aurait des pouvoirs conférés par la loi pour surveiller les différentes compagnies technologiques, cela pourrait créer un système réglementaire pour les contenus en ligne qui est aussi effectif que pour ceux des industries de contenu hors ligne.

38. Comme nous l’avons énoncé dans notre rapport intermédiaire, un tel Code d’Éthique devrait ressembler à celui du Broadcasting Code publiée par Ofcom, qui se base sur des lignes directrices définies dans la section 319 du Communications Acts de 2003. Le Code d’Éthique devrait être mis au point par des experts techniques et supervisés par un régulateur indépendant, pour pouvoir mettre noir sur blanc ce qui est acceptable et ce qui ne l’est pas sur les réseaux sociaux, notamment les contenus abusifs et illégaux qui ont été signalés par leurs utilisateurs pour être retirés, ou qu’il aurait été facile d’identifier pour les compagnies technologiques elles-mêmes.

39. Le processus devrait définir une responsabilité juridique claire pour les compagnies technologiques de prendre des mesures contre les contenus abusifs et illégaux sur leur plateforme et ces compagnies devraient mettre en place des systèmes adaptés pour marquer et retirer des « types d’abus » et s’assurer que les structures de cybersécurité soient implémentées. Si les compagnies techniques (y compris les ingénieurs informaticiens en charge de la création des logiciels pour ces compagnies) sont reconnues fautifs de ne pas avoir respecté leurs obligations en vertu d’un tel code, et n’ont pas pris de mesure allant contre la diffusion de contenus abusifs et illégaux, le régulateur indépendant devrait pouvoir engager des poursuites judiciaires à leur encontre, dans l’objectif de les condamner à payer des amendes élevées en cas de non-respect du Code.

40. C’est le même organisme public qui devrait avoir des droits statutaires pour obtenir toute information de la part des compagnies de réseaux sociaux qui sont en lien avec son enquête. Cela pourrait concerner la capacité de vérifier les données qui sont conservées sur un utilisateur, s’il demandait ces informations. Cet organisme devrait avoir accès aux mécanismes de sécurité des compagnies technologiques et aux algorithmes, pour s’assurer qu’ils travaillent de manière responsable. Cet organisme public devrait être accessible au public et recevoir les plaintes sur les compagnies des réseaux sociaux. Nous demandons au gouvernement de soumettre ces propositions dans son prochain livre blanc.

Utilisation des données personnelles et inférence

41. Lorsque Mark Zuckerberg a fourni les preuves au congrès en avril 2018, dans la suite du scandal Cambridge Analytica, il a fait la déclaration suivante : « Vous devriez avoir un contrôle complet sur vos données […] Si nous ne communiquons pas cela clairement, c’est un point important sur lequel nous devons travailler ». Lorsqu’il lui a été demandé à qui était cet « alterego virtuel », Zuckerberg a répondu que les gens eux-mêmes possèdent tout le « contenu » qu’ils hébergent sur la plateforme, et qu’ils peuvent l’effacer à leur gré42. Cependant, le profil publicitaire que Facebook construit sur les utilisateurs ne peut être accédé, contrôlé ni effacé par ces utilisateurs. Il est difficile de concilier ce fait avec l’affirmation que les utilisateurs possèdent tout « le contenu » qu’ils uploadent.

42. Au Royaume-Uni, la protection des données utilisateur est couverte par le RGPD (Règlement Général de Protection des Données)43. Cependant, les données « inférées » ne sont pas protégées ; cela inclut les caractéristiques qui peuvent être inférées sur les utilisateurs et qui ne sont pas basées sur des informations qu’ils ont partagées, mais sur l’analyse des données de leur profil. Ceci, par exemple, permet aux partis politiques d’identifier des sympathisants sur des sites comme Facebook, grâce aux profils correspondants et aux outils de ciblage publicitaire sur les « publics similaires ». Selon la propre description de Facebook des « publics similaires », les publicitaires ont l’avantage d’atteindre de nouvelles personnes sur Facebook « qui ont des chances d’être intéressées par leurs produits car ils sont semblables à leurs clients existants » 44.

43. Le rapport de l’ICO, publié en juillet 2018, interroge sur la présomption des partis politques à ne pas considérer les données inférées comme des données personnelles:

« Nos investigations montrent que les partis politiques n’ont pas considéré les données inférées comme des informations personnelles car ce ne sont pas des informations factuelles. Cependant, le point de vue de l’ICO est que ces informations sont basées sur des hypothèses sur les intérets des personnes et leurs préférences, et peuvent être attribuées à des individus spécifiques, donc ce sont des informations personnelles et elles sont soumises aux contraintes de la protection des données 45. »

44. Les données inférées sont donc considérées par l’ICO comme des données personnelles, ce qui devient un problème lorsque les utilisateurs sont informés qu’ils disposent de leurs propres données, et qu’ils ont un pouvoir sur où les données vont, et ce pour quoi elles sont utilisées. Protéger nos données nous aide à sécuriser le passé, mais protéger les inférences et l’utilisation de l’Intelligence Artificielle (IA) est ce dont nous avons besoin pour protéger notre futur.

45. La commissaire à l’information, Elizabeth Denham, a souligné son intérêt sur l’utilisation des données inférées dans les campagnes politiques lorsqu’elle a fourni des preuves au comité en novembre 2018, déclarant qu’il y a eu :

« Un nombre dérangeant de manque de respect des données personnelles des votants et des votants potentiels. Ce qui s’est passé ici est que le modèle familier aux gens du secteur commercial sur le ciblage des comportements a été transféré – je pense transformé – dans l’arène politique. C’est pour cela que j’appelle à une pause éthique, afin que nous puissions y remédier. Nous ne voulons pas utiliser le même modèle qui nous vend des vacances, des chaussures et des voitures pour collaborer avec des personnes et des votants. Les gens veulent plus que ça. C’est le moment pour faire un pause pour regarder les codes, regarder les pratiques des entreprises de réseaux sociaux, de prendre des mesures là où ils ont enfreint la loi. Pour nous, le principal but de ceci est de lever le rideau et montrer au public ce qu’il advient de leurs données personnelles 46. »

46. Avec des références explicites sur l’utilisation des « publics similaires » de Facebook, Elizabeth Denham a expliqué au comité qu’ils « devaient être transparents envers les [utilisateurs] privés. Ils ont besoin de savoir qu’un parti politique, ou un membre du parlement, fait usage des publics similaires. Le manque de transparence est problématique47. Lorsque nous avons demandé à la commissaire à l’information si elle pensait que l’utilisation des « publics similaires » était légal selon le RGPD, elle a répondu : « Nous avons besoin de l’analyser en détail sous la loupe du RGPD, mais je pense que le public est mal à l’aise avec les publics similaires, et il a besoin que ce soit transparent » 48. Les gens ont besoin de savoir que l’information qu’ils donnent pour un besoin spécifique va être utilisé pour inférer des informations sur eux dans d’autres buts.

47. Le secrétaire d’état, le très honorable membre du parlement Jeremy Wright, nous a également informé que le framework éthique et législatif entourant l’IA devait se développer parallèlement à la technologie, ne pas « courir pour [la] rattraper », comme cela s’est produit avec d’autres technologies dans le passé 49. Nous devons explorer les problèmes entourant l’IA en détail, dans nos enquêtes sur les technologies immersives et d’addictives, qui a été lancée en décembre 2018 50.

48. Nous soutenons la recommandation de l’ICO comme quoi les données inférées devraient être protégées par la loi comme les informations personnelles. Les lois sur la protection de la vie privée devraient être étendues au-delà des informations personnelles pour inclure les modèles utilisés pour les inférences sur les individus. Nous recommandons que le gouvernement étudie les manières dont les protections de la vie privée peuvent être étendues pour inclure les modèles qui sont utilisés pour les inférences sur les individus, en particulier lors des campagnes politiques. Cela nous assurerait que les inférences sur les individus sont traitées de manière aussi importante que les informations personnelles des individus.

Rôle accru de l’OIC et taxe sur les entreprises de technologie

49. Dans notre rapport intérimaire, nous avons demandé que l’OIC soit mieux à même d’être à la fois un « shérif efficace dans le Far West de l’Internet » et d’anticiper les technologies futures. L’OIC doit avoir les mêmes connaissances techniques, sinon plus, que les organisations examinées51. Nous avons recommandé qu’une redevance soit prélevée sur les sociétés de technologie opérant au Royaume-Uni, pour aider à payer ces travaux, dans le même esprit que la façon dont le secteur bancaire paie les frais de fonctionnement de l’autorité de régulation Financière 52 53.

50. Lorsque l’on a demandé au secrétaire d’État ce qu’il pensait d’une redevance, il a répondu, en ce qui concerne Facebook en particulier: « Le Comité est rassuré que ce n’est pas parce que Facebook dit qu’il ne veut pas payer une redevance, qu’il ne sera pas question de savoir si nous devrions ou non avoir une redevance »54. Il nous a également dit que « ni moi, ni, je pense franchement, l’OIC, ne pensons qu’elle soit sous-financée pour le travail qu’elle a à faire actuellement. […] Si nous devons mener d’autres activités, que ce soit en raison d’une réglementation ou d’une formation supplémentaires, par exemple, il faudra bien qu’elles soient financées d’une façon ou d’une autre. Par conséquent, je pense que la redevance vaut la peine d’être envisagée »55.

51. Dans notre rapport intermédiaire, nous avons recommandé qu’une redevance soit prélevée sur les sociétés de technologie opérant au Royaume-Uni pour soutenir le travail renforcé de l’OIC. Nous réitérons cette recommandation. La décision du chancelier, dans son budget de 2018, d’imposer une nouvelle taxe de 2% sur les services numériques sur les revenus des grandes entreprises technologiques du Royaume-Uni à partir d’avril 2020, montre que le gouvernement est ouvert à l’idée d’une taxe sur les entreprises technologiques. Dans sa réponse à notre rapport intermédiaire, le gouvernement a laissé entendre qu’il n’appuierait plus financièrement l’OIC, contrairement à notre recommandation. Nous exhortons le gouvernement à réévaluer cette position.

52. Le nouveau système indépendant et la nouvelle réglementation que nous recommandons d’établir doivent être financés adéquatement. Nous recommandons qu’une taxe soit prélevée sur les sociétés de technologie opérant au Royaume-Uni pour financer leur travail.




Demain, les nains…

Et si les géants de la technologie numérique étaient concurrencés et peut-être remplacés par les nains des technologies modestes et respectueuses des êtres humains ?

Telle est l’utopie qu’expose Aral Balkan ci-dessous. Faut-il préciser que chez Framasoft, nous avons l’impression d’être en phase avec cette démarche et de cocher déjà des cases qui font de nous ce qu’Aral appelle une Small Tech (littéralement : les petites technologies) par opposition aux Big Tech, autrement dit les GAFAM et leurs successeurs déjà en embuscade pour leur disputer les positions hégémoniques.

Article original sur le blog d’Aral Balkan : Small technology

L’antidote aux Big tech : la Small Tech

une basket posée sur le rebord d’un carrelage, avec une minuscule plante qui pointe quelques feuilles et qui sort du joint entre deux tuiles.

Les géants du numérique, avec leurs « licornes » à plusieurs milliards de dollars, nous ont confisqué le potentiel d’Internet. Alimentée par la très courte vue et la rapacité du capital-risque et des start-ups, la vision utopique d’une ressource commune décentralisée et démocratique s’est transformée en l’autocratie dystopique des panopticons de la Silicon Valley que nous appelons le capitalisme de surveillance. Cette mutation menace non seulement nos démocraties, mais aussi l’intégrité même de notre personne à l’ère du numérique et des réseaux1.

Alors que la conception éthique décrit sans ambiguïté les critères et les caractéristiques des alternatives éthiques au capitalisme de surveillance, c’est l’éthique elle-même qui est annexée par les Big Tech dans des opérations de relations publiques qui détournent l’attention des questions systémiques centrales2 pour mettre sous les projecteurs des symptômes superficiels3.

Nous avons besoin d’un antidote au capitalisme de surveillance qui soit tellement contradictoire avec les intérêts des Big Tech qu’il ne puisse être récupéré par eux. Il doit avoir des caractéristiques et des objectifs clairs et simples impossibles à mal interpréter. Et il doit fournir une alternative viable et pratique à la mainmise de la Silicon Valley sur les technologies et la société en général.

Cet antidote, c’est la Small Tech.

Small Tech

  • elle est conçue par des humains pour des humains 4 ;
  • elle n’a pas de but lucratif 5 ;
  • elle est créée par des individus et des organisations sans capitaux propres6 ;
  • elle ne bénéficie d’aucun financement par le capitalisme de la surveillance des Big Tech7 ;
  • elle respecte la vie privée par défaut8 ;
  • elle fonctionne en pair à pair9 ;
  • elle est copyleft10 ;
  • elle favorise les petits plutôt que les grands, les simples plutôt que les complexes et tout ce qui est modulaire plutôt que monolithique11 ;
  • elle respecte les droits humains, leurs efforts et leur expérience12 ;
  • elle est à l’échelle humaine13.

Ces critères signifient que la Small Tech :

  • est la propriété des individus qui la contrôlent, et non des entreprises ou des gouvernements ;
  • respecte, protège et renforce l’intégrité de la personne humaine, des droits humains, de la justice sociale et de la démocratie à l’ère du numérique en réseau ;
  • encourage une organisation politique non-hiérarchisée et où les décisions sont prises à l’échelle humaine ;
  • alimente un bien commun sain ;
  • est soutenable ;
  • sera un jour financée par les communs, pour le bien commun.
  • ne rapportera jamais des milliards à quiconque.

  1. Lectures suggérées : La nature du « soi » à l’ère numérique, Encourager la maîtrise de chacun et la bonne santé des biens communs, et Nous n’avons pas perdu le contrôle du Web — on nous l’a volé[retour]
  2. Nous avons un système dans lequel 99.99999% des investissements financent les entreprises qui reposent sur la surveillance et se donnent pour mission de croître de façon exponentielle en violant la vie privée de la population en général [retour]
  3.  « Attention » et « addiction ». S’il est vrai que les capitalistes de la surveillance veulent attirer notre attention et nous rendre dépendants à leurs produits, ils ne le font pas comme une fin en soi, mais parce que plus nous utilisons leurs produits, plus ils peuvent nous exploiter pour nos données. Des entreprises comme Google et Facebook sont des fermes industrielles pour les êtres humains. Leurs produits sont les machines agricoles. Ils doivent fournir une façade brillante pour garder notre attention et nous rendre dépendants afin que nous, le bétail, puissions volontairement nous autoriser à être exploités. Ces institutions ne peuvent être réformées. Les Big Tech ne peuvent être réglementées que de la même manière que la Big Tobacco pour réduire ses méfaits sur la société. Nous pouvons et devrions investir dans une alternative éthique : la Small Tech. [retour]
  4. La petite technologie établit une relation d’humain à humain par nature. Plus précisément, elle n’est pas créée par des sociétés à but lucratif pour exploiter les individus – ce qu’on appelle la technologie entreprise vers consommateur. Il ne s’agit pas non plus d’une technologie construite par des entreprises pour d’autres entreprises [retour]
  5. Nous construisons la Small Tech principalement pour le bien commun, pas pour faire du profit. Cela ne signifie pas pour autant que nous ne tenons pas compte du système économique dans lequel nous nous trouvons actuellement enlisés ou du fait que les solutions de rechange que nous élaborons doivent être durables. Même si nous espérons qu’un jour Small Tech sera financé par les deniers publics, pour le bien commun, nous ne pouvons pas attendre que nos politiciens et nos décideurs politiques se réveillent et mettent en œuvre un tel changement social. Alors que nous devons survivre dans le capitalisme, nous pouvons vendre et faire des profits avec la Small Tech. Mais ce n’est pas notre but premier. Nos organisations se préoccupent avant tout des méthodes durables pour créer des outils qui donnent du pouvoir aux gens sans les exploiter, et non de faire du profit. Small Tech n’est pas une organisation caritative, mais une organisation à but non lucratif.[retour]
  6. Les organisations disposant de capitaux propres sont détenues et peuvent donc être vendues. En revanche, les organisations sans capital social (par exemple, les sociétés à responsabilité limitée par garantie en Irlande et au Royaume-Uni) ne peuvent être vendues. De plus, si une organisation a du capital-risque, on peut considérer qu’elle a déjà été vendue au moment de l’investissement car, si elle n’échoue pas, elle doit se retirer (être achetée par une grande société ou par le public en général lors d’une introduction en bourse). Les investisseurs en capital-risque investissent l’argent de leurs clients dans la sortie. La sortie est la façon dont ces investisseurs font leur retour sur investissement. Nous évitons cette pilule toxique dans la Small Tech en créant des organisations sans capitaux propres qui ne peuvent être vendues. La Silicon Valley a des entreprises de jetables qu’ils appellent des startups. Nous avons des organisations durables qui travaillent pour le bien commun que nous appelons Stayups (Note de Traduction : jeu de mots avec le verbe to stay signifie « demeurer »).[retour]
  7. La révolution ne sera pas parrainée par ceux contre qui nous nous révoltons. Small Tech rejette le parrainage par des capitalistes de la surveillance. Nous ne permettrons pas que nos efforts soient utilisés comme des relations publiques pour légitimer et blanchir le modèle d’affaires toxique des Big Tech et les aider à éviter une réglementation efficace pour mettre un frein à leurs abus et donner une chance aux alternatives éthiques de prospérer.[retour]
  8. La vie privée, c’est avoir le droit de décider de ce que vous gardez pour vous et de ce que vous partagez avec les autres. Par conséquent, la seule définition de la protection de la vie privée qui importe est celle de la vie privée par défaut. Cela signifie que nous concevons la Small Tech de sorte que les données des gens restent sur leurs appareils. S’il y a une raison légitime pour laquelle cela n’est pas possible (par exemple, nous avons besoin d’un nœud permanent dans un système de pair à pair pour garantir l’accessibilité et la disponibilité), nous nous assurons que les données sont chiffrées de bout en bout et que l’individu qui possède l’outil possède les clés des informations privées et puisse contrôler seul qui est à chacun des « bouts » (pour éviter le spectre du Ghosting).[retour]
  9. La configuration de base de notre technologie est le pair à pair : un système a-centré dans lequel tous les nœuds sont égaux. Les nœuds sur lesquels les individus n’ont pas de contrôle direct (p. ex., le nœud toujours actif dans le système pair à pair mentionné dans la note précédente) sont des nœuds de relais non fiables et non privilégiés qui n’ont jamais d’accès aux informations personnelles des personnes.[retour]
  10. Afin d’assurer un bien commun sain, nous devons protéger le bien commun contre l’exploitation et de l’enfermement. La Small Tech utilise des licences copyleft pour s’assurer que si vous bénéficiez des biens communs, vous devez redonner aux biens communs. Cela empêche également les Big Tech d’embrasser et d’étendre notre travail pour finalement nous en exclure en utilisant leur vaste concentration de richesse et de pouvoir.[retour]
  11. La Small Tech est influencé en grande partie par la richesse du travail existant des concepteurs et développeurs inspirants de la communauté JavaScript qui ont donné naissance aux communautés DAT et Scuttlebutt. Leur philosophie, qui consiste à créer des composants pragmatiques, modulaires, minimalistes et à l’échelle humaine, aboutit à une technologie qui est accessible aux individus, qui peut être maintenue par eux et qui leur profite. Leur approche, qui est aussi la nôtre, repose sur la philosophie d’UNIX.[retour]
  12. La Small Tech adhère  au manifeste du Design éthique.[retour]
  13. La Small Tech est conçue par des humains, pour des humains ; c’est une approche résolument non-coloniale. Elle n’est pas créée par des humains plus intelligents pour des humains plus bêtes (par exemple, par des développeurs pour des utilisateurs – nous n’utilisons pas le terme utilisateur dans Small Tech. On appelle les personnes, des personnes.) Nous élaborons nos outils aussi simplement que possible pour qu’ils puissent être compris, maintenus et améliorés par le plus grand nombre. Nous n’avons pas l’arrogance de supposer que les gens feront des efforts excessifs pour apprendre nos outils. Nous nous efforçons de les rendre intuitifs et faciles à utiliser. Nous réalisons de belles fonctionnalités par défaut et nous arrondissons les angles. N’oubliez pas : la complexité survient d’elle-même, mais la simplicité, vous devez vous efforcer de l’atteindre. Dans la Small Tech, trop intelligent est une façon de dire stupide. Comme le dit Brian Kernighan : « Le débogage est deux fois plus difficile que l’écriture du premier jet de code. Par conséquent, si vous écrivez du code aussi intelligemment que possible, vous n’êtes, par définition, pas assez intelligent pour le déboguer. » Nous nous inspirons de l’esprit de la citation de Brian et l’appliquons à tous les niveaux : financement, structure organisationnelle, conception du produit, son développement, son déploiement et au-delà.[retour]

Crédit photo : Small Things, Big Things by Sherman Geronimo-Tan. Licence Creative Commons Attribution.

[retour]




Le chemin vers une informatique éthique

Le logiciel « open source » a gagné, tant mieux, c’est un préalable pour une informatique éthique, explique Daniel Pascot, qui a tout au long d’une carrière bien remplie associé enseignement et pratique de l’informatique, y compris en créant une entreprise.

Du côté de nos cousins d’Outre-Atlantique, on lui doit notamment d’avoir présidé aux destinées de l’association libriste FACIL (c’est un peu l’April du Québec) et milité activement pour la promotion de solutions libres jusqu’aux instances gouvernementales.

On peut se réjouir de l’ubiquité du logiciel libre mais les fameuses quatre libertés du logiciel libre (merci Mr Stallman) ne semblent en réalité concerner que les créateurs de logiciels. Les utilisateurs, peu réceptifs au potentiel ouvert par les licences libres, sont intéressés essentiellement par l’usage libre des logiciels et les services proposés par des entreprises intermédiaires. Hic jacet lupus… Quand ces services échappent à la portée des licences libres, comment garantir qu’ils sont éthiques ? La réflexion qu’entame Daniel Pascot à la lumière d’exemples concrets porte de façon très intéressante sur les conditions d’un contrat équilibré entre utilisateurs et fournisseurs de services. Les propositions de charte qu’il élabore ressemblent d’ailleurs plutôt à une liste des droits des utilisateurs et utilisatrices 😉

Chez Framasoft, nous trouvons que ce sont là des réflexions et propositions fort bien venues pour le mouvement de CHATONS qui justement vous proposent des services divers en s’engageant par une charte.

Comme toujours sur le Framablog, les commentaires sont ouverts…


Le logiciel « open source » a gagné, oui mais…

Photo Yann Doublet

Les « libristes »1 se rendent progressivement compte que bien des combats qu’ils ont livrés étaient une cause perdue d’avance car ils sous-estimaient les conséquences de la complexité des logiciels. Quels que soient les bienfaits des logiciels libres, les utiliser exige une compétence et un entretien continu qui ne sont pas envisageables pour la grande majorité des individus ou organisations2.

Richard Stallman a fait prendre conscience de la nécessité de contrôler les programmes pour garantir notre liberté. La dimension éthique était importante : il parlait du bon et du mauvais logiciel. L’importance de ce contrôle a été mise en évidence par Lawrence Lessig avec son « Code is law »3. La nature immatérielle et non rivale du logiciel faisait que les libristes le considéraient naturellement comme un bien commun. Il leur semblait évident qu’il devait être partagé. Comme on vivait alors dans un monde où les ordinateurs étaient autonomes, la licence GPL avec ses libertés offrait un socle satisfaisant sur lequel les libristes s’appuyaient.

J’ai depuis plus de 20 ans enseigné et milité pour le logiciel libre que j’utilise quotidiennement. Comme tout bon libriste convaincu, j’ai présenté les quatre libertés de la GPL, et je reconnais que je n’ai pas convaincu grand monde avec ce discours. Qu’il faille garder contrôle sur le logiciel, parfait ! Les gens comprennent, mais la solution GPL ne les concerne pas parce que ce n’est absolument pas dans leur intention d’installer, étudier, modifier ou distribuer du logiciel. Relisez les licences et vous conviendrez qu’elles sont rédigées du point de vue des producteurs de logiciels plus que des utilisateurs qui n’envisagent pas d’en produire eux-mêmes.

Mais un objet technique et complexe, c’est naturellement l’affaire des professionnels et de l’industrie. Pour eux, la morale ou l’éthique n’est pas une préoccupation première, ce sont des techniciens et des marchands qui font marcher l’économie dans leur intérêt. Par contre, la liberté du partage du code pour des raisons d’efficacité (qualité et coût) les concerne. Ils se sont alors débarrassés de la dimension éthique en créant le modèle open source4. Et ça a marché rondement au point que ce modèle a gagné la bataille du logiciel. Les cinq plus grandes entreprises au monde selon leurs capitalisations boursières, les GAFAM, reposent sur ce modèle. Microsoft n’est plus le démon privatif à abattre, mais est devenu un acteur du libre. Enlevez le code libre et plus de Web, plus de courrier électronique, plus de réseaux sociaux comme Facebook, plus de service Google ou Amazon, ou de téléphone Apple ou Android. Conclusion : le logiciel libre a gagné face au logiciel propriétaire, c’est une question de temps pour que la question ne se pose plus.

Oui, mais voilà, c’est du logiciel libre débarrassé de toute évidence de sa dimension éthique, ce qui fait que du point de vue de l’utilisateur qui dépend d’un prestataire, le logiciel libre n’apporte rien. En effet, les prestataires de services, comme les réseaux sociaux ou les plates-formes de diffusion, ne distribuent pas de logiciel, ils en utilisent et donc échappent tout à fait légalement aux contraintes éthiques associées aux licences libres. Ce qui importe aux utilisateurs ce ne sont pas les logiciels en tant qu’objets, mais le service qu’ils rendent qui, lui, n’est pas couvert par les licences de logiciel libre. Circonstance aggravante, la gratuité apparente de bien des services de logiciel anesthésie leurs utilisateurs face aux conséquences de leur perte de liberté et de l’appropriation de leurs données et comportements (méta données) souvent à leur insu5.

Pourtant, aujourd’hui, nous ne pouvons plus nous passer de logiciel, tout comme nous ne pouvons pas nous passer de manger. Le logiciel libre c’est un peu comme le « bio » : de plus en plus de personnes veulent manger bio, tout simplement parce que c’est bon pour soi (ne pas s’empoisonner), bon pour la planète (la préserver de certaines pollutions) ou aussi parce que cela permet d’évoluer vers une économie plus humaine à laquelle on aspire (économie de proximité). Le « bio » est récent, mais en pleine expansion, il y a de plus en plus de producteurs, de marchands, et nos gouvernements s’en préoccupent par des lois, des règlements, des certifications ou la fiscalité. Ainsi le « bio » ce n’est pas seulement un produit, mais un écosystème complexe qui repose sur des valeurs : si le bio s’était limité à des « écolos » pour auto-consommation, on n’en parlerait pas. Eh bien le logiciel c’est comme le bio, ce n’est pas seulement un produit mais aussi un écosystème complexe qui concerne chacun de nous et la société avec tous ses acteurs.

Dans l’écosystème logiciel, les éditeurs et les prestataires de service qui produisent et opèrent le logiciel, ont compris que le logiciel libre (au sens open source) est bon pour eux et s’en servent, car ils le contrôlent. Par contre il n’en va pas de même pour ceux qui ne contrôlent pas directement le logiciel. La licence du logiciel ne suffit pas à leur donner contrôle. Mais alors que faire pour s’assurer que le service rendu par le logiciel via un prestataire soit bon pour nous, les divers utilisateurs dans cet écosystème numérique complexe ?

Je vais ici commenter la dimension éthique de deux projets de nature informatique qui s’appuient sur du logiciel libre sur lesquels je travaille actuellement en tentant d’intégrer ma réflexion de militant, d’universitaire et de praticien. PIAFS concerne les individus et donc le respect de nos vies privées pour des données sensibles, celles de notre santé dans un contexte de partage limité, la famille. REA vise à garantir à une organisation le contrôle de son informatisation dans le cadre d’une relation contractuelle de nature coopérative.

Deux cas qui ont alimenté ma réflexion

PIAFS : Partage des Informations Avec la Famille en Santé

PIAFS est projet qui répond à un besoin non satisfait : un serveur privé pour partager des données de santé au sein d’une unité familiale à des fins d’entr’aide (http://piafs.org/). Cette idée, dans un premier temps, a débouché sur un projet de recherche universitaire pour en valider et préciser la nature. Pour cela il nous fallait un prototype.

Au-delà de la satisfaction d’un besoin réel, je cherchais en tant que libriste comment promouvoir le logiciel libre. Je constatais que mes proches n’étaient pas prêts à renoncer à leurs réseaux sociaux même si je leur en montrais les conséquences. Il fallait éviter une première grande difficulté : changer leurs habitudes. J’avais là une opportunité : mes proches, comme beaucoup de monde, n’avaient pas encore osé organiser leurs données de santé dans leur réseau social.

Si ce projet avait dès le départ une dimension éthique, il n’était pas question de confier ces données sensibles à un réseau social. J’étais dès le départ confronté à une dimension pratique au-delà de la disponibilité du logiciel. De plus, pour les utilisateurs de PIAFS, l’auto-hébergement n’est pas une solution envisageable. Il fallait recourir à un fournisseur car un tel service doit être assuré d’une manière responsable et pérenne. Même si l’on s’appuyait sur des coopératives de santé pour explorer le concept, il est rapidement apparu qu’il fallait recourir à un service professionnel classique dont il faut alors assumer les coûts6. Il fallait transposer les garanties apportées par le logiciel libre au fournisseur de service : l’idée de charte que l’on voyait émerger depuis quelques années semblait la bonne approche pour garantir une informatique éthique, et en même temps leur faire comprendre qu’ils devaient eux-mêmes assurer les coûts du service.

REA : Pour donner au client le contrôle de son informatisation

J’ai enseigné la conception des systèmes d’information dans l’université pendant près de 40 ans (à Aix-en-Provence puis à Québec), et eu l’occasion de travailler dans des dizaines de projets. J’ai eu connaissance de nombreux dérapages de coût ou de calendrier et j’ai étudié la plupart des méthodologies qui tentent d’y remédier. J’ai aussi appris qu’une des stratégies commerciales de l’industrie informatique (ils ne sont pas les seuls !) est la création de situations de rente pas toujours à l’avantage du client. Dans tout cela je n’ai pas rencontré grande préoccupation éthique.

J’ai eu, dès le début de ma carrière de professeur en systèmes d’information (1971), la chance d’assister, sinon participer, à la formalisation de la vision de Jean-Louis Le Moigne7 : un système d’information consiste à capturer, organiser et conserver puis distribuer et parfois traiter les informations créées par l’organisation. Cette vision s’opposait aux méthodologies naissantes de l’analyse structurée issues de la programmation structurée. Elle établissait que l’activité de programmation devait être précédée par une compréhension du fonctionnement de l’organisation à partir de ses processus. L’approche qui consiste à choisir une « solution informatique » sans vraiment repenser le problème est encore largement dominante. J’ai ainsi été conduit à développer, enseigner et pratiquer une approche dite à partir des données qui s’appuie sur la réalisation précoce de prototypes fonctionnels afin de limiter les dérapages coûteux (je l’appelle maintenant REA pour Référentiel d’Entreprise Actif, le code de REA est bien sûr libre).

Mon but est, dans ma perspective libriste, de redonner le contrôle au client dans la relation client-fournisseur de services d’intégration. Si ce contrôle leur échappe trop souvent du fait de leur incompétence technique, il n’en reste pas moins que ce sont eux qui subissent les conséquences des systèmes informatiques « mal foutus ». Là encore le logiciel libre ne suffit pas à garantir le respect du client et le besoin d’une charte pour une informatique éthique s’impose8 .

Photo EOI (CC-BY-SA 2.0)

Vers une charte de l’informatique libre, c’est-à-dire bonne pour l’écosystème numérique

Dans les deux cas, si l’on a les ressources et la compétence pour se débrouiller seul, les licences libres comme la GPL ou une licence Creative Commons pour la méthodologie garantissent une informatique éthique (respect de l’utilisateur, contribution à un bien commun). S’il faut recourir à un hébergeur ou un intégrateur, les garanties dépendent de l’entente contractuelle entre le client-utilisateur et le fournisseur.

Il y a une différence fondamentale entre le logiciel et le service. Le logiciel est non rival, il ne s’épuise pas à l’usage, car il peut être reproduit sans perte pour l’original, alors que le service rendu est à consommation unique. Le logiciel relève de l’abondance alors que le service relève de la rareté qui est le fondement de l’économie qui nous domine, c’est la rareté qui fait le prix. Le logiciel peut être mis en commun et partagé alors que le service ne le peut pas. L’économie d’échelle n’enlève pas le caractère rival du service. Et c’est là que la réalité nous rattrape : la mise en commun du logiciel est bonne pour nous tous, mais cela n’a pas de sens pour le service car aucun fournisseur ne rendra ce service gratuitement hormis le pur bénévolat.

Des propositions balisant un comportement éthique existent, en voici quelques exemples:

  • dans Le Manifeste pour le développement Agile de logiciels, des informaticiens ont proposé une démarche dite agile qui repose sur 4 valeurs et 12 principes. Sans être explicitement une charte éthique, la démarche est clairement définie dans l’optique du respect du client. Ce manifeste est utile dans le cas REA ;
  • la charte du collectif du mouvement CHATONS concerne les individus, elle est pensée dans un contexte d’économie sociale et solidaire, elle est inspirante pour le cas PIAFS ;
  • la charte de Framasoft définit un internet éthique, elle est inspirante pour le cas PIAFS mais aussi pour la définition d’un cadre global;
  • dernièrement sous forme de lettre ouverte, un collectif issu du Techfestival de Copenhague propose une pratique éthique, utile pour les deux cas et qui permet de réfléchir au cadre global.

Les libristes, mais dieu merci ils ne sont pas les seuls, ont une bonne idée des valeurs qui président à une informatique éthique, bonne pour eux, à laquelle ils aspirent lorsqu’ils utilisent les services d’un fournisseur. Les exigences éthiques ne sont cependant pas les mêmes dans les deux cas car l’un concerne un service qui n’inclut pas de développement informatique spécifique et l’autre implique une activité de développement significative (dans le tableau ci-dessous seuls des critères concernant l’éthique sont proposés):

Critères pour le client Dans le cas de PIAFS Dans le cas d’un projet REA
Respect de leur propriété Les données qu’ils produisent leur appartiennent, ce n’est pas négociable Tout document produit (analyse, …) est propriété du client
Respect de leur identité Essentiel Le client doit contrôler la feuille de route, ce sont ses besoins que l’on doit satisfaire par ceux du fournisseur
Respect de leur indépendance vis à vis du fournisseur Important, préside au choix des logiciels et des formats Critique : mais difficile à satisfaire.
Proximité du service : favoriser l’économie locale et protection contre les monopoles Important Important
Pérennité du service Important, mais peut être tempéré par la facilité du changement Essentiel : le changement est difficile et coûteux, mais la « prise en otage » est pire
Payer le juste prix Important Important
Partage équitable des risques Risque faible Essentiel car le risque est élevé
Mise en réseau Essentiel : la connexion « sociale » est impérative mais dans le respect des autres valeurs Plus aucune organisation vit en autarcie
Contribution (concerne le fournisseur) Non discutable, obligatoire Important mais aménageable

Entente sur le logiciel

Le client, individu ou organisation, doit avoir l’assurance que les logiciels utilisés par le fournisseur de services font bien et seulement ce qu’ils doivent faire. Comme il n’a pas la connaissance requise pour cette expertise, il doit faire confiance au fournisseur. Or, parce que celui-ci n’offre pas toute la garantie requise (volonté et capacité de sa part), il faut, dans cette situation, recourir à un tiers de confiance. Cette expertise externe par un tiers de confiance est très problématique. Il faut d’une part que le fournisseur donne accès aux logiciels et d’autre part trouver un expert externe qui accepte d’étudier les logiciels, autrement dit résoudre la quadrature du cercle !

Le logiciel libre permet de la résoudre. Il est accessible puisqu’il est public, il est produit par une communauté qui a les qualités requises pour jouer ce rôle de tiers de confiance. Ainsi, pour une informatique éthique :

  • tout logiciel utilisé par le fournisseur doit être public, couvert par une licence libre, ce qui le conduit à ne pas redévelopper un code existant ou le moins possible,
  • s’il est amené à produire du nouveau code,
    • le fournisseur doit le rendre libre. C’est à l’avantage de la société mais aussi du client dans un contexte de partage et de protection contre les situations de rente qui le tiennent en otage,
    • ou du moins le rendre accessible au client,
  • garantir que seul le code montré est utilisé,
  • utiliser des formats de données et documents libres.

L’éthique est complexe, il est difficile sinon impossible d’anticiper tous les cas. L’exigence de logiciel libre peut être adaptée à des situations particulières, par exemple si le prestataire est engagé pour un logiciel que le client ne désire pas partager il en prend alors la responsabilité, ou si la nécessité de poursuivre l’utilisation de logiciels non libres est non contournable temporairement.

Entente sur le bien ou service

Le critère du coût est propre au service. Dans une approche éthique le juste coût n’est pas la résultante du jeu de l’offre et de la demande, ni d’un jeu de négociation basé sur des secrets, et encore moins le résultat d’une rente de situation. Il s’agit pour le fournisseur de couvrir ses coûts et de rentabiliser son investissement (matériel, formation…). Une approche éthique impose  de la transparence, le client  :

  • doit savoir ce qu’il paye,
  • doit avoir la garantie que le contrat couvre tous les frais pour l’ensemble du service (pas de surprise à venir),
  • doit être capable d’estimer la valeur de ce qu’il paye,
  • doit connaître les coûts de retrait du service et en estimer les conséquences.

Le partage équitable du risque concerne essentiellement les projets d’informatisation avec un intégrateur. Il est rare que l’on puisse estimer correctement l’ampleur d’un projet avant de l’avoir au moins partiellement réalisé. Une part du risque provient de l’organisation et de son environnement, une autre part du risque provient des capacités du fournisseur et de ses outils. Ceci a un impact sur le découpage du projet, chaque étape permet d’estimer les suivantes :

  • tout travail réalisé par le fournisseur contributif au projet :
    • doit être payé,
    • appartient au client,
    • doit pouvoir être utilisé indépendamment du fournisseur.
  • le travail dont le volume est dépendant du client est facturé au temps,
  • le travail sous le contrôle du fournisseur doit si possible être facturé sur une base forfaitaire,
  • le client est maître de la feuille de route,
  • tout travail entamé par le fournisseur doit être compris et accepté par le client,
  • la relation entre le client et le fournisseur est de nature collaborative, le client participe au projet qui évolue au cours de la réalisation à la différence d’une relation contractuelle dans laquelle le client commande puis le fournisseur livre ce qui est commandé.

Conclusion : l’informatique éthique est possible

Pour tous les utilisateurs de l’informatique, c’est à dire pratiquement tout le monde et toutes les organisations de notre société numérique, il est aussi difficile de nier l’intérêt d’une informatique éthique que de rejeter le « bio », mais encore faut-il en être conscient. Le débat au sein des producteurs de logiciels reste difficile à comprendre. Ce qui est bon pour un libriste c’est un logiciel qui avant tout le respecte, alors que pour les autres informaticiens, c’est à dire la grande majorité, c’est un logiciel qui ne bogue pas. Fait aggravant : la vérité des coûts nous est cachée. Cependant au-delà de cette différence philosophique, l’intérêt du logiciel partagé est tel qu’un immense patrimoine de logiciel libre ou open source est disponible. Ce patrimoine est le socle sur lequel une informatique éthique est possible. Les deux cas présentés nous montent que les conditions existent dès maintenant.

Une informatique éthique est possible, mais elle ne sera que si nous l’exigeons. Les géants du Net sont de véritables états souverains devant lesquels même nos états baissent pavillon. La route est longue, chaotique et pleine de surprises, comme elle l’a été depuis la naissance de l’ordinateur, mais un fait est acquis, elle doit reposer sur le logiciel libre.

Le chemin se fait en marchant, comme l’écrivait le poète Antonio Machado, et c’est à nous libristes de nous donner la main et de la tendre aux autres. Ce ne sera pas facile car il faudra mettre la main à la poche et la bataille est politique. Il nous faut exiger, inspirés par le mouvement « bio », un label informatique éthique et pourquoi pas un forum mondial de l’écosystème numérique. La piste est tracée (à l’instar de la Quadrature du Net), à nous de l’emprunter.


Notes

  1. J’ai utilisé ce mot de libriste pour rendre compte de la dimension militante et à certains égards repliée sur elle-même, qu’on leur reproche souvent à raison.
  2. Voir sur ce point le blog NullPointerException, « Que faut-il pour XXX? Du logiciel libre! Non, une gouvernance éthique », 21/02/2017.
  3. Dans un article paru en 2000, Lawrence Lessig -auquel on doit les licences Creative Commons- a clairement mis en lumière que l’usage d’internet (et donc des logiciels) nous contraint, tout comme nous sommes contraint par les lois. Il nous y a alerté sur les conséquences relatives à notre vie privée. Voir la traduction française sur Framablog « Le code fait loi – De la liberté dans le cyberespace » (publié le 22/05/2010),
  4. Dans l’optique open source, un bon logiciel est un logiciel qui n’a pas de bogue. Dans l’optique logiciel libre, un bon logiciel est un logiciel éthique qui respecte son utilisateur et contribue au patrimoine commun. Dans les deux cas il est question d’accès au code source mais pour des raisons différentes, ce qui au plan des licences peut sembler des nuances : « Né en 1998 d’une scission de la communauté du logiciel libre (communauté d’utilisateurs et de développeurs) afin de conduire une politique jugée plus adaptée aux réalités économiques et techniques, le mouvement open source défend la liberté d’accéder aux sources des programmes qu’ils utilisent, afin d’aboutir à une économie du logiciel dépendant de la seule vente de prestations et non plus de celle de licences d’utilisation ». Voir la page Wikipédia, « Open Source Initiative ».
  5. Voir par exemple Tristan Nitot, « Surveillance:// Les libertés au défi du numérique : comprendre et agir », C&F éditions, 2016. L’interview de T. Nitot sur le Framablog. Le site « Social Cooling » (« Les données conduisent au refroidissement social »).
  6. La question de recourir à une organisation de l’économie sociale et solidaire s’est posée et ce n’est pas exclu.Cela n’a pas été retenu pour des raisons pratiques et aussi parce que la démarche visait à promouvoir une informatique éthique de la part des fournisseurs traditionnels locaux.
  7. Avant d’être connu comme un constructiviste Jean-Louis Le Moigne, alors professeur à l’IAE d’Aix-en-Provence, créait un enseignement de systèmes d’information organisationnels et lançait avec Huber Tardieu la recherche qui a conduit à la méthode Merise à laquelle j’ai participé car j’étais alors assistant dans sa petite équipe universitaire et il a été mon directeur de doctorat.
  8. Cela se dégage par exemple de la thèse de Balla Diop que j’ai dirigée. Il a comparé des implantations de ERP libres et propriétaires : du point de vue du client hormis les coûts il y a peu de différence. Voir Balla Diop, L’effet de la stratégie logicielle (ERP open source vs ERP commercial) sur le développement du capital humain des PME, Thèse de doctorat dirigée par D. Pascot, Université Laval, 2015.



Créateurs du numérique, parlons un peu éthique

Une lettre ouverte de la communauté des technologies de l’information invite à réfléchir un peu à la notion de responsabilité de chacun, compte tenu de l’enjeu du numérique pour nous tous.

Une invitation à réfléchir et débattre donc, au-delà de la pétition (encore une !) aux accents idéalistes. Nous avons peut-être tous besoin de nous demander ce que nous faisons concrètement pour nous mettre en phase avec nos idéaux. C’est en ce sens que la traduction que nous vous proposons nous semble digne d’intérêt.

Pendant 48 heures, les 150 participants issus du monde du numérique (des développeurs et développeuses, des designers, mais aussi des philosophes, des enseignant⋅e⋅s et des artistes)  du Techfestival de Copenhague ont échangé, débattu et se sont accordés entre autres pour lancer cet appel dont vous trouverez la version originale sur la page https://copenhagenletter.org/

Les auteurs précisent :

Cette lettre reflète (notre) engagement, et lance un débat sur les valeurs et les principes qui guident la technologie.

Vous avez bien lu : voilà une petite bande qui estime que ce n’est pas la technologie ou le profit qui doivent guider leur activité mais des valeurs et des principes.

Oserons-nous avancer que cette perspective, qui peut exister dans le milieu libriste, est bien rare dans une communauté de travailleurs du numérique (si cette expression vous heurte dites-nous pourquoi…) ou la notion de responsabilité est trop souvent mise sous le tapis.

S’il vous faut des exemples : la responsabilité de ceux qui conçoivent des algorithmes, on en parle ? Les objets connectés qui commencent à investir notre vie quotidienne, quels principes en gouvernent la conception ? L’administration des bases de données sensibles, quels garde-fous ?

Si après avoir parcouru cet appel vous souhaitez signer et donc vous engager, vous trouverez le lien au bas de la page.

Traduction Framalang : mo, goofy, PasDePanique, Penguin, xi, audionuma et des anonymes

 

La lettre de Copenhague, 2017

 

À tous ceux qui façonnent la technologie aujourd’hui

Nous vivons dans un monde où la technologie dévore la société, l’éthique et notre existence elle-même.

Il est temps d’assumer la responsabilité du monde que nous créons. Il est temps que les êtres humains passent avant le business. Il est temps de remplacer la rhétorique creuse du « construire un monde meilleur » par un engagement à agir concrètement. Il est temps de nous organiser et de nous considérer comme responsables les uns envers les autres.

La technologie ne nous est pas supérieure. Elle devrait être gouvernée par nous tous, par nos institutions démocratiques. Elle devrait respecter les règles de nos sociétés. Elle devrait répondre à nos besoins, individuels et collectifs, tout autant qu’à nos envies.

Le progrès ne se limite pas à l’innovation. Nous sommes des bâtisseurs-nés. À nous de créer une nouvelle Renaissance. Nous ouvrirons et animerons un débat public honnête sur le pouvoir de la technologie. Nous sommes prêt⋅e⋅s à servir nos sociétés. Nous mettrons en œuvre les moyens à notre disposition pour faire progresser nos sociétés et leurs institutions.

Bâtissons sur la confiance. Jetons les bases d’une véritable transparence. Nous avons besoin de citoyens numériques, pas de simples consommateurs. Nous dépendons tous de la transparence pour comprendre comment la technologie nous façonne, quelles données nous partageons et qui peut y avoir accès. Se considérer les uns les autres comme des produits de base dont on peut tirer le maximum de valeur économique est désastreux, non seulement pour notre société qui est un ensemble complexe et interconnecté, mais aussi pour chacun d’entre nous.

Concevons des outils ouverts à l’analyse. Nous devons encourager une réflexion continue, publique et critique sur notre définition de la réussite, qui précise comment nous construisons et concevons pour les autres. Nous devons chercher à concevoir avec ceux pour qui nous concevons. Nous ne tolérerons pas une conception qui viserait la dépendance, la tromperie ou le contrôle. Nous devons créer des outils que nous aimerions voir utilisés par nos proches. Nous devons remettre en question nos objectifs et écouter notre cœur.

Passons d’une conception centrée sur l’homme à une conception centrée sur l’humanité.
Notre communauté exerce une grande influence. Nous devons protéger et cultiver son potentiel de faire le bien. Nous devons le faire en prêtant attention aux inégalités, avec humilité et amour. En fin de compte, notre récompense sera de savoir que nous avons fait tout ce qui est en notre pouvoir pour rendre notre jardin un peu plus vert que nous ne l’avons trouvé.

Nous qui avons signé cette lettre, nous nous tiendrons, nous-mêmes et chacun d’entre nous, pour responsables de la mise en pratique de ces idées. Tel est notre engagement.

En signant, vous acceptez que votre nom soit listé. Un mail de confirmation vous sera envoyé. Votre adresse mail ne sera partagée avec personne.

Vous êtes invité⋅e à signer* ou répondre à la Lettre de Copenhague, et à partager son contenu.

Contact (en anglais) : hej@copenhagenletter.org

 

*Note : mardi 19/09 à 13h50 plus de 1300 signatures et plus de 2100 à 19h30, ce qui est plutôt bien compte tenu de la cible particulière de ce texte.




Des routes et des ponts (9) – l’argent et l’open source

Nadia Eghbal a déjà évoqué plusieurs fois les liens entre l’argent et l’open source (si vous avez manqué des épisodes). Elle y revient dans ce chapitre, en insistant sur les questions fondamentales que pose l’argent aux communautés open source ainsi qu’à leurs membres.

Question de nature quasi-philosophique : l’open source peut-il perdre son âme à cause de l’argent ? Question de gouvernance : qui va décider de l’utilisation des fonds ? Et pour finir question éthique et politique : jusqu’à où peut-on, doit-on accepter les requêtes des financeurs ?

La relation compliquée de l’open source avec l’argent

Traduction Framalang : goudron, Penguin, serici, goofy, Rozmador, xi, Lumibd, teromene, xi, Diane, et 3 anonymes

eye-banknote

L’argent est un sujet tabou dans les projets open source, et ce depuis les premiers jours du mouvement du logiciel libre qui émergea en réponse directe aux pratiques commerciales des logiciels propriétaires. Dans le contexte du mouvement du logiciel libre, l’aversion pour l’argent est tout à fait compréhensible. L’argent est ce qui permettait de commercialiser les logiciels dans les années 1980 et il a fallu des décennies pour revenir sur cet état d’esprit et promouvoir les avantages liés à l’élaboration de logiciels qui soient libres d’utilisation, de distribution et de modification. Même si de nos jours, nous prenons les logiciels libres pour acquis, dans les années 1980, c’était une véritable contre-culture, un état d’esprit révolutionnaire.

Au sein même des communautés open source, il existe une croyance répandue selon laquelle l’argent est de nature à corrompre l’open source. Et en effet, le nombre de projets nés d’un « travail-passion » est assez incroyable. Aujourd’hui, le développement de logiciel est considéré comme un domaine lucratif, dont les écoles de programmation appâtent leurs futurs étudiants avec des promesses de premiers salaires en dollars à six chiffres. Par contraste, il y a quelque chose de pur et d’admirable dans le fait de créer un logiciel simplement pour le plaisir.

D’un point de vue plus pratique, les projets open source se créent traditionnellement autour d’un besoin réel et identifiable. Quelqu’un estime qu’un projet pourrait être mieux fait, décide de le forker, effectue des améliorations, puis les diffuse pour qu’on en fasse usage. Le pragmatisme est au cœur de la culture open source, comme le prouve sa scission stratégique avec le mouvement du logiciel libre à la fin des années 1990. Certains contributeurs open source craignent, peut-être avec raison, que l’argent n’introduise un développement « artificiel » du système, avec des développeurs qui lancent de nouveaux projets simplement pour acquérir des financements, plutôt que pour répondre à un besoin réel.

David Heinemeier Hansson (aussi connu sous le pseudo de DHH), qui a créé le framework populaire Ruby on Rails, mettait en garde en 2013 contre les mélanges entre open source et argent :

Si l’open source est une incroyable force pour la qualité et pour la communauté, c’est précisément parce qu’elle n’a pas été définie en termes de marché. Dans le cadre du marché, la plupart des projets open source n’auraient jamais eu leur chance.

Prenez Ruby on Rails. […] C’est une réalisation colossale pour l’humanité ! Des milliers de gens, collaborant pendant une décennie entière pour produire une structure et un écosystème incroyablement aboutis, disponibles pour tous gratuitement. Prenez une seconde pour méditer sur l’ampleur de cette réussite. Pas seulement pour Rails, évidemment, mais pour de nombreux autres projets open source, encore plus grands, avec une filiation plus longue et encore plus de succès.

C’est en considérant ce fantastique succès, dû aux règles de vie d’une communauté, que nous devrions être extraordinairement prudents avant de laisser les lois du marché corrompre l’écosystème.

Structurellement, le meilleur atout de l’open source : son penchant pour la démocratie, est aussi sa faiblesse. Beaucoup de projets open source ne sont rien de plus qu’un dépôt numérique public où est stocké du code auquel un groupe de gens contribue régulièrement : l’équivalent d’une association officieuse sur un campus universitaire. Il n’y a pas de structure légale et il n’y a pas de propriétaire ou de chef clairement défini. Les  « mainteneurs » ou les contributeurs principaux émergent souvent de facto, en fonction de qui a créé le projet, ou de qui y a investi beaucoup de temps ou d’efforts. Cependant, même dans ces cas-là, dans certains projets on répugne à introduire une hiérarchie favorisant clairement un contributeur par rapport à un autre.

En avril 2008, Jeff Atwood, un développeur .NET bien connu et dont nous avons déjà parlé, a annoncé qu’il donnait 5 000 $ au projet open source : ScrewTurn Wiki. ScrewTurn Wiki est un projet de wiki développé par Dario Solara, un autre développeur .NET, et maintenu par des volontaires. Atwood a dit à Dario que le don était « sans condition » : Solara pouvait utiliser l’argent de la manière qu’il jugerait la plus utile au projet.
Plusieurs mois plus tard, Atwood demanda à Solara comment il avait décidé de dépenser l’argent. Solara lui répondit que l’argent de la donation était « encore intact. Ce n’est pas facile de l’utiliser… Que suggères-tu ? » Atwood a écrit que cette réponse l’avait « terriblement déçu ».

La nature décentralisée du monde open source en a fait ce qu’il est : des logiciels produits de façon participative, que n’importe qui peut élaborer, partager, et améliorer. Mais quand vient le moment de discuter des besoins organisationnels, ou de la viabilité, il peut être difficile de prendre des décisions faisant autorité.

Ces transitions vers une viabilité à long terme peuvent êtres interminables et douloureuses. Un des exemples les plus connus est le noyau Linux, un projet open source utilisé dans de nombreux systèmes d’exploitation à travers le monde, parmi lesquels Android et Chrome OS. Il a été créé en 1991 par Linus Torvalds, un étudiant en informatique .
Au fur et à mesure que le noyau Linux gagnait en popularité, Linus rechignait à discuter de l’organisation du développement du projet, préférant tout gérer tout seul.  L’inquiétude et aussi la colère à l’égard de Torvalds grandirent chez les développeurs du projet, déclenchant de « vraies grosses disputes » selon Torvalds. Le conflit a atteint son apogée en 2002, on évoqua même un possible schisme.

Torvalds attribua ces conflits internes à un manque d’organisation, plutôt qu’à un quelconque problème technique :

Nous avons eu de vraies grosses disputes aux alentours de 2002, quand j’appliquais des correctifs à droite à gauche, et que les choses ne fonctionnaient vraiment pas. C’était très douloureux pour tout le monde, et également beaucoup pour moi. Personne n’aime vraiment les critiques, et il y avait beaucoup de critiques virulentes, et comme ce n’était pas un problème strictement technique, on ne pouvait pas juste montrer un correctif et dire :  « Hé, regardez, ce patch améliore les performances de 15% » ou quoique ce soit de ce genre. Il n’y avait pas de solution technique. La solution a été d’utiliser de meilleurs outils, et d’avoir une organisation du travail qui nous permette de mieux distribuer les tâches.

La Fondation Linux a été créée en 2007 pour aider à protéger et à maintenir Linux et ses projets associés. Torvalds ne pilote pas la Fondation Linux lui-même, il a préféré recevoir un salaire régulier en tant que « Compagnon Linux », et travailler sur ses projets en tant qu’ingénieur.

Malgré le fait que le logiciel open source soit admirablement ancré dans une culture du volontariat et de la collaboration relativement peu touchée par des motivations extérieures, la réalité est que notre économie et notre société, depuis les sociétés multimillionnaires jusqu’aux sites web gouvernementaux, dépendent de l’open source.

Dans l’ensemble, c’est probablement une évolution positive pour la société. Cela signifie que les logiciels ne sont plus limités à un développement privé et propriétaire, comme cela a été le cas pendant des dizaines d’années. Le fait que le gouvernement des États-Unis, ou un réseau social possédant des milliards d’utilisateurs, intègrent des logiciels construits par une communauté, annonce un futur optimiste pour la démocratie.

De plus, de nombreux projets fonctionnent très bien de manière communautaire lorsqu’ils sont d’une des deux tailles extrêmes possibles, c’est-à-dire soit des petits projets qui ne demandent pas de maintenance significative (comme dans l’exemple de Arash Payan et Appirater), soit de très gros projets qui reçoivent un soutien important de la part d’entreprises (comme Linux).

Cependant, beaucoup de projets sont coincés quelque part entre les deux : assez grands pour avoir besoin d’une maintenance significative, mais pas d’une taille suffisante pour que des entreprises déclarent leur offrir un soutien. Ces projets sont ceux dont l’histoire passe inaperçue, ceux dont on ne parle pas. Des deux côtés, on dit aux développeurs de ces projets « moyens » qu’ils sont le problème : du côté des « petits projets », on pense qu’ils devraient simplement mieux s’organiser et du côté des « gros projets », on pense que si leur projet était « assez bon », il aurait déjà reçu l’attention des soutiens institutionnels.

Il existe aussi des intérêts politiques autour de la question du soutien financier qui rendent encore plus difficile la prospection d’une source de financement fiable. On peut imaginer qu’une entreprise seule ne souhaite pas sponsoriser le développement d’un travail qui pourrait également bénéficier à son concurrent, qui lui n’aurait rien payé. Un mécène privé peut exiger des privilèges spécifiques qui menacent la neutralité d’un projet. Par exemple, dans les projets en lien avec la sécurité, le fait d’exiger d’être le seul à qui sont révélées les potentielles failles (c’est-à-dire payer pour être le seul à connaître les failles de sécurité plutôt que de les rendre publiques) est un type de requête controversé. Des gouvernements peuvent également avoir des raisons politiques pour financer le développement d’un projet en particulier, ou pour demander des faveurs spéciales comme une « backdoor » (une porte dérobée, c’est-à-dire un accès secret qui permet d’outrepasser les authentifications de sécurité), même si le projet est utilisé dans le monde entier.

Les récents démêlés légaux entre le FBI et Apple sont un bon révélateur des tensions qui existent entre technologie et gouvernement, au-delà même des projets open source.
Le FBI a, de manière répétée, et à l’aide d’assignations en justice, demandé l’aide d’Apple pour déverrouiller des téléphones afin d’aider à résoudre des enquêtes criminelles. Apple a toujours refusé ces requêtes. En février 2016, le FBI a demandé l’aide d’Apple pour déverrouiller le téléphone d’un des tireurs d’une attaque terroriste récente à San Bernardino, en Californie. Apple a également refusé de les aider, et a publié une lettre sur son site, déclarant :

Tout en croyant que les intentions du FBI sont bonnes, nous pensons qu’il serait mauvais pour le gouvernement de nous forcer à ajouter une « backdoor » dans nos produits. Et finalement, nous avons peur que cette demande mette en danger les libertés que notre gouvernement est censé protéger.

 

En mars 2016, le FBI a trouvé une tierce partie pour l’aider à déverrouiller l’iPhone et a laissé tomber l’affaire.

Une des plus grandes forces de l’open source est que le code est considéré comme un bien public, et beaucoup de projets prennent la gestion de ces projets au sérieux.  Il est important à titre personnel, pour beaucoup de développeurs de projets, que personne ne puisse prendre seul le contrôle d’une chose que le public utilise et dont il bénéficie. Toutefois, cet engagement à rester neutre a un prix, puisque beaucoup de ressources disponibles pour les développeurs de nos jours (comme les capitaux-risques ou les donations d’entreprises) attendent en contrepartie d’influer sur le projet ou des retours sur investissement.

Le logiciel open source est créé et utilisé de nos jours à une vitesse jamais vue auparavant. Beaucoup de projets open source sont en train d’expérimenter la difficile transition d’une création désintéressée à une infrastructure publique essentielle.
Ces dépendances toujours plus nombreuses signifient que nous avons pour responsabilité partagée de garantir à ces projets le soutien dont ils ont besoin.

eye-larger-banknote
Crédits pour les 2 images Eelke (CC BY 2.0)




Sensibilité, fraternité, logiciel libre

Le programmeur, et tout particulièrement celui qui se reconnaît dans les valeurs du Libre comme un hacker, est souvent perçu comme l’acteur d’une contre-culture. Il existerait un monde underground où une joyeuse bande de drôles de petits bonhommes (voir ce qu’en aurait dit Paracelse, ci-dessous) s’agiteraient autour de vaines activités plus ou moins gauchistes, idéalistes, utopistes, en tout cas très éloignées des préoccupations de ce bas-monde (du monde sensible, donc). Les assassinats terroristes subis en ce début de janvier 2015 ont montré qu’au contraire les libristes sont non seulement sensibles, mais mettent aussi à l’épreuve des faits les principes de liberté, d’égalité et de fraternité auxquels ils adhèrent.

Tel est le propos, tenu en profondeur par Véronique Bonnet, philosophe, dans le texte que nous publions aujourd’hui[1].

Sensibilité, fraternité, logiciel libre

(ou en quoi une tragique actualité récente en appelle plus que jamais aux valeurs de l’informatique libre)

Une tribune libre de Véronique Bonnet.

« Cerises d’amour aux robes pareilles », tendres proies, chairs à fusil… Abattues par une détermination glacée. La chanson Le Temps des cerises fut dédiée par Jean-Baptiste Clément, en 1871, à une infirmière courageuse, Louise, fusillée pendant la semaine sanglante. « Cerises d’amour aux robes pareilles, tombant sous la feuille en gouttes de sang […] J’aimerai toujours le temps des cerises, c’est de ce temps-là que je garde au cœur une plaie ouverte… ». Clément conjugue synergie citoyenne et sympathie, fruits qui se cueillent, eux aussi, en rêvant. Ni liberté ni égalité sans fraternité.

Toutes proportions gardées, eu égard à la gravité de cette actualité récente, rappelons la centralité, dans l’éthique du logiciel libre, de cette composante fraternelle. Soit de l’appartenance commune à l’humaine condition. Ces jours difficiles ne peuvent que nous donner l’énergie de persévérer dans cette sympathie, la synergie du ressenti, qui caractérise l’idéal du Free Software.

Dans sa déclinaison de la triade de la République, « liberté, égalité, fraternité », Richard Matthew Stallman, fondateur en 1983 du projet GNU, rappelle ce ciment de la communauté des utilisateurs. La fraternité n’y est pas la cinquième roue du carrosse mais l’horizon sensible qui anime l’esprit libriste, partageux. D’aucuns disent datalove, d’autres common data, d’autres encore Commons, patrimoine inaliénable de ce que l’ingéniosité humaine a pu produire de plus beau, lignes de codes, patrimoine intellectuel et esthétique.

La fondation de Richard Stallman, la Free Software Foundation, dont la petite sœur francophone est l’April (Association francophone de promotion et défense du logiciel libre), vise à protéger l’informatique d’appropriations privatrices, et prend toutes dispositions pour laisser à l’utilisateur sa sensibilité cosmopolitique et les moyens informatiques de ses aspirations au partage. Eben Moglen, juriste décisif, concepteur de la GNU GPL, archétype des « gauche d’auteur », côté cœur, a œuvré pour la cause de l’inaliénable.

Rappelons quelques paroles de la chanson du logiciel libre, la Free Software Song, de Richard Stallman lui-même, filk musical, ou copie reconfigurée, d’une chanson bulgare, qui mettent au premier plan le voisin, le prochain :

Join us now to share the software,
and you’ll be free, hackers, you’ll be free […]
Hoarders can get piles of money,
That is true, hackers, that is true.
But they cannot help their neighbors;
That’s not good, hackers, that’s not good.

[« Rejoins-nous pour partager les logiciels, et vous serez libres, hackers, vous serez libres […] Les affairistes peuvent gagner des tas d’argent, c’est vrai, hackers, c’est vrai. Mais ils ne peuvent pas aider leurs voisins ; et c’est pas bon, hackers, c’est pas bon. »]

En ce début de XXIe siècle, les pratiques informatiques peuvent-elles faire l’économie de la fraternité ? Au nom d’un rêve d’autosuffisance, d’auto-fécondité, qui croirait pouvoir se passer de sensibilité ?

L’informatique se présente initialement comme une entreprise audacieuse de mécanisation des opérations de l’être parlant, l’humain. Cherchant à implémenter dans les scripts, les lignes de commande, des instructions mimant les rouages de l’intellect. Sans jamais rencontrer la confusion d’une incarnation. Évacuer le sensible de l’informatique, au seul profit de l’intelligible ? Abstraire, certes, aller du vécu au pensé, pour coder. Mais réintégrer la chair du monde, et de ceux qui l’habitent, pour laisser étudier le code, le copier, l’améliorer, le partager.

Philippe Breton, dans son Histoire de l’informatique[2], souligne déjà l’un des traits de l’évitement de la différence, à travers une symbolique sexuelle qu’il relie au Frankenstein ou le Prométhée moderne de Mary Shelley, et fait remonter à Paracelse : celle de l’économie du féminin, soit, dans des conceptions anté-génétiques, la mise entre parenthèses de l’être pourvoyeur de matière. Pour laisser le champ libre au masculin, être pourvoyeur de formes. Et en faire un programmeur de code, de chaînes abstraites suffisamment complexes pour se reconfigurer elles-mêmes, comme le ferait un vivant. Il fait remonter ce rêve à Paracelse, et à sa théorie des « homoncules », soit des petits humains.

Philippe Breton écrit, p. 35 de son ouvrage : « Les homoncules de Paracelse constituent une tentative intéressante pour constituer des répliques de l’homme sans avoir recours à un utérus féminin. Ces nains monstrueux employés comme agents puissants et connaissant des choses secrètes qu’autrement les hommes ne pourraient pas savoir (conformément au thème de l’imperfection de l’homme) sont formés à partir de sperme et de sang selon l’ancienne croyance (Aristote et Pline, par exemple). Leur fabrication était liée à la théorie spermiste de la préformation qui supposait que toute l’espèce humaine était préformée dans les reins du premier homme et dans les ovaires de la première femme. Le projet de se passer des femmes comme génitrices n’est sans doute pas étranger à toutes les tentatives ultérieures de créer des « intelligences artificielles. »

Nous pourrions compléter cette piste ouverte par Philippe Breton en indiquant que lorsque Mary Shelley écrit, au bord du lac Léman, son Frankenstein, elle est inspirée par les lectures et conversations sur le galvanisme, dispositif dont on espère qu’il ravive. Usage de l’éclair dont elle va imaginer qu’il mette en vie, qu’il érige en organisme homogène des éléments hétérogènes. Ces élaborations sont perpétrées par un cercle d’intellectuels qui compte alors lord Byron. Ce dernier aura pour fille… une certaine Ada, bien connue de la communauté de programmeurs sous son nom d’épouse, Ada Lovelace, mathématicienne, considérée comme la première programmeuse, pour avoir rédigé un algorithme permettant de faire exécuter un calcul des nombres de Bernoulli par la machine analytique de Charles Babbage. Penser alors l’engendrement de l’intelligence artificielle comme formalisme univoque ? Dans l’évitement et du féminin et de la dimension de l’être symboliquement associée au féminin, depuis Aristote, qui s’appelle la sensibilité ?

Il est intéressant qu’une femme écrivain, Mary Shelley, démiurge à sa manière, créatrice autarcique, dans son Frankenstein, représente un homme, le Docteur Frankenstein, donnant vie, par l’énergie de la foudre, à un composé d’hommes, sa créature, pour laquelle il ne parviendra pas à éprouver de sentiment paternel, d’où la suite. Et qu’une mathématicienne, Ada, fille de mathématicienne, Anabella, celle-là même que Lord Byron appelait « la princesse des parallélogrammes », aille plus loin que Babbage lui-même dans la pratique de l’abstraction. L’informatique va-t-elle jusqu’à revendiquer un formalisme désincarné, en plus de neutraliser les aspérités sensibles des langues dans le code ?

Le Libre, l’informatique qui « rend sensible au cœur » l’inaliénabilité des outils logiciels et des créations qu’ils permettent, remet l’humain au centre, dans toutes ses dimensions, contre la brutalité abstraite de ce qui le nie. Douceur, l’autre soir, du dessin de Gee. Chaleur d’une communauté libriste, qui ne fait jamais humanité à part.


[1] En réalité Véronique Bonnet nous a proposé son texte voilà plus d’une semaine. Or Framasoft a connu de grosses difficultés avec les serveurs qui hébergent nos sites et services, ce qui explique ce retard. Nous tenons à nous en excuser ici une nouvelle fois.

[2] Philippe Breton, Histoire de l’informatique, Paris : Seuil, 1990.


Image de l’en-tête : What is art?, par Steve Jurvetson (Licence CC-By).