Les nouveaux Léviathans II — Surveillance et confiance (a)

Qu’est-ce qui fait courir Framasoft ? De la campagne Dégooglisons à l’initiative C.H.A.T.O.N.S quelles idées ont en tête les acteurs et soutiens de l’association ? Vous reprendrez bien une tranche de Léviathan ?


Pour vous inviter à aller au-delà des apparences (la sympathique petite tribu d’amateurs gaulois qui veut modestement mettre son grain de sable dans la loi des entreprises hégémoniques) nous vous proposons non seulement un moment de réflexion, mais pour une fois une série de considérations nourries, argumentées et documentées sur l’état de bascule que nous vivons et dans lequel nous prétendons inscrire notre action avec vous.

Jamais le logiciel libre et les valeurs qu’il porte n’ont été autant à la croisée des chemins, car il ne s’agit pas de proposer seulement des alternatives techniques, c’est un défi économique et politique qu’il doit relever.

Entre les États qui nous surveillent et les GAFAM qui nous monétisent, jamais le refuge du secret, celui de l’intime, n’a été aussi attaqué ni menacé. Pour représenter le monstre à plusieurs têtes, Christophe Masutti qui est l’auteur de cette série de réflexions, a choisi la figure emblématique du Léviathan, forgée déjà par Hobbes en particulier pour désigner l’État toujours plus avide de domination.

C’est donc une série de Léviathans nouveaux et anciens que nous vous invitons à découvrir par étapes, tout au long de cette semaine, qui vous conduiront peut-être à comprendre et adopter notre démarche. Car une fois établies les sources du mal et posé le diagnostic, que faire ? Les perspectives que nous proposons seront peut-être les vôtres.

Note de l’auteur :Cette seconde partie (Léviathans II) vise à approfondir les concepts survolés précédemment (Léviathans I). Nous avons vu que les monopoles de l’économie numérique ont changé le paradigme libéral jusqu’à instaurer un capitalisme de surveillance. Pour en rendre compte et comprendre ce nouveau système, il faut brosser plusieurs aspects de nos rapports avec la technologie en général, et les services numériques en particulier, puis voir comment des modèles s’imposent par l’usage des big data et la conformisation du marché (Léviathans IIa). J’expliquerai, à partir de la lecture de S. Zuboff, quelles sont les principales caractéristiques du capitalisme de surveillance. En identifiant ainsi ces nouvelles conditions de l’aliénation des individus, il devient évident que le rétablissement de la confiance aux sources de nos relations contractuelles et démocratiques, passe immanquablement par l’autonomie, le partage et la coopération, sur le modèle du logiciel libre (Léviathans IIb).

Techniques d’anticipation

On pense habituellement les objets techniques et les phénomènes sociaux comme deux choses différentes, voire parfois opposées. En plus de la nature, il y aurait deux autres réalités : d’un côté un monde constitué de nos individualités, nos rapports sociaux, nos idées politiques, la manière dont nous structurons ensemble la société ; et de l’autre côté le monde des techniques qui, pour être appréhendé, réclamerait obligatoirement des compétences particulières (artisanat, ingénierie). Nous refusons même parfois de comprendre nos interactions avec les techniques autrement que par automatisme, comme si notre accomplissement social passait uniquement par le statut d’utilisateur et jamais comme producteurs. Comme si une mise à distance devait obligatoirement s’établir entre ce que nous sommes (des êtres sociaux) et ce que nous produisons. Cette posture est au plus haut point paradoxale puisque non seulement la technologie est une activité sociale mais nos sociétés sont à bien des égards elles-mêmes configurées, transformées, et même régulées par les objets techniques. Certes, la compréhension des techniques n’est pas toujours obligatoire pour comprendre les faits sociaux, mais il faut avouer que bien peu de faits sociaux se comprennent sans la technique.

L’avènement des sociétés industrielles a marqué un pas supplémentaire dans l’interdépendance entre le social et les objets techniques : le travail, comme activité productrice, est en soi un rapport réflexif sur les pratiques et les savoirs qui forment des systèmes techniques. Nous baignons dans une culture technologique, nous sommes des êtres technologiques. Nous ne sommes pas que cela. La technologie n’a pas le monopole du signifiant : nous trouvons dans l’art, dans nos codes sociaux, dans nos intentions, tout un ensemble d’éléments culturels dont la technologie est censée être absente. Nous en usons parfois même pour effectuer une mise à distance des techniques omniprésentes. Mais ces dernières ne se réduisent pas à des objets produits. Elles sont à la fois des pratiques, des savoir-faire et des objets. La raison pour laquelle nous tenons tant à instaurer une mise à distance par rapport aux technologies que nous utilisons, c’est parce qu’elles s’intègrent tellement dans notre système économique qu’elles agissent aussi comme une forme d’aliénation au travail comme au quotidien.

Attention, Amazon très méchant
Attention, Amazon très méchant

Ces dernières années, nous avons vu émerger des technologies qui prétendent prédire nos comportements. Amazon teste à grande échelle des dépôts locaux de produits en prévision des commandes passées par les internautes sur un territoire donné. Les stocks de ces dépôts seront gérés au plus juste par l’exploitation des données inférées à partir de l’analyse de l’attention des utilisateurs (mesurée au clic), les tendances des recherches effectuées sur le site, l’impact des promotions et propositions d’Amazon, etc. De son côté, Google ne cesse d’analyser nos recherches dans son moteur d’indexation, dont les suggestions anticipent nos besoins souvent de manière troublante. En somme, si nous éprouvons parfois cette nécessité d’une mise à distance entre notre être et la technologie, c’est en réponse à cette situation où, intuitivement, nous sentons bien que la technologie n’a pas à s’immiscer aussi profondément dans l’intimité de nos pensées. Mais est-ce vraiment le cas ? Ne conformons-nous pas aussi, dans une certaine mesure, nos envies et nos besoins en fonction de ce qui nous est présenté comme nos envies et nos besoins ? La lutte permanente entre notre volonté d’indépendance et notre adaptation à la société de consommation, c’est-à-dire au marché, est quelque chose qui a parfaitement été compris par les grandes firmes du secteur numérique. Parce que nous laissons tellement de traces transformées en autant d’informations extraites, analysées, quantifiées, ces firmes sont désormais capables d’anticiper et de conformer le marché à leurs besoins de rentabilité comme jamais une firme n’a pu le faire dans l’histoire des sociétés capitalistes modernes.

Productivisme et information

Si vous venez de perdre deux minutes à lire ma prose ci-dessus hautement dopée à l’EPO (Enfonçage de Portes Ouvertes), c’est parce qu’il m’a tout de même paru assez important de faire quelques rappels de base avant d’entamer des considérations qui nous mènerons petit à petit vers une compréhension en détail de ce système. J’ai toujours l’image de cette enseignante de faculté, refusant de lire un mode d’emploi pour appuyer deux touches sur son clavier afin de basculer l’affichage écran vers l’affichage du diaporama, et qui s’exclamait : « il faut appeler un informaticien, ils sont là pour ça, non ? ». Ben non, ma grande, un informaticien a autre chose à faire. C’est une illustration très courante de ce que la transmission des savoirs (activité sociale) dépend éminemment des techniques (un vidéo-projecteur couplé un ordinateur contenant lui-même des supports de cours sous forme de fichiers) et que toute tentative volontaire ou non de mise à distance (ne pas vouloir acquérir un savoir-faire technique) cause un bouleversement a-social (ne plus être en mesure d’assurer une transmission de connaissance, ou plus prosaïquement passer pour quelqu’un de stupide). La place que nous occupons dans la société n’est pas uniquement une affaire de codes ou relations interpersonnelles, elle dépend pour beaucoup de l’ordre économique et technique auquel nous devons plus ou moins nous ajuster au risque de l’exclusion (et la forme la plus radicale d’exclusion est l’absence de travail et/ou l’incapacité de consommer).

Des études déjà anciennes sur les organisations du travail, notamment à propos de l’industrialisation de masse, ont montré comment la technologie, au même titre que l’organisation, détermine les comportements des salariés, en particulier lorsqu’elle conditionne l’automatisation des tâches1. Souvent, cette automatisation a été étudiée sous l’angle des répercussions socio-psychologiques, accroissant les sentiments de perte de sens ou d’aliénation sociale2. D’un point de vue plus populaire, c’est le remplacement de l’homme par la machine qui fut tantôt vécu comme une tragédie (l’apparition du chômage de masse) tantôt comme un bienfait (diminuer la pénibilité du travail). Aujourd’hui, les enjeux sont très différents. On s’interroge moins sur la place de la machine dans l’industrie que sur les taux de productivité et la gestion des flux. C’est qu’un changement de paradigme s’est accompli à partir des années 1970-1980, qui ont vu apparaître l’informatisation quasi totale des systèmes de production et la multiplication des ordinateurs mainframe dans les entreprises pour traiter des quantités sans cesse croissantes de données.

Très peu de sociologues ou d’économistes ont travaillé sur ce qu’une illustre chercheuse de la Harvard Business School, Shoshana Zuboff a identifié dans la transformation des systèmes de production : l’informationnalisation (informating). En effet, dans un livre très visionnaire, In the Age Of The Smart Machine en 19883, S. Zuboff montre que les mécanismes du capitalisme productiviste du XXe siècle ont connu plusieurs mouvements, plus ou moins concomitants selon les secteurs : la mécanisation, la rationalisation des tâches, l’automatisation des processus et l’informationnalisation. Ce dernier mouvement découle des précédents : dès l’instant qu’on mesure la production et qu’on identifie des processus, on les documente et on les programme pour les automatiser. L’informationnalisation est un processus qui transforme la mesure et la description des activités en information, c’est-à-dire en données extractibles et quantifiables, calculatoires et analytiques.

Là où S. Zuboff s’est montrée visionnaire dans les années 1980, c’est qu’elle a montré aussi comment l’informationnalisation modèle en retour les apprentissages et déplace les enjeux de pouvoir. On ne cherche plus à savoir qui a les connaissances suffisantes pour mettre en œuvre telle procédure, mais qui a accès aux données dont l’analyse déterminera la stratégie de développement des activités. Alors que le « vieux » capitalisme organisait une concurrence entre moyens de production et maîtrise de l’offre, ce qui, dans une économie mondialisée n’a plus vraiment de sens, un nouveau capitalisme (dont nous verrons plus loin qu’il se nomme le capitalisme de surveillance) est né, et repose sur la production d’informations, la maîtrise des données et donc des processus.

Pour illustrer, il suffit de penser à nos smartphones. Quelle que soit la marque, ils sont produits de manière plus ou moins redondante, parfois dans les mêmes chaînes de production (au moins en ce qui concerne les composants), avec des méthodes d’automatisation très similaires. Dès lors, la concurrence se place à un tout autre niveau : l’optimisation des procédures et l’identification des usages, tous deux producteurs de données. Si bien que la plus-value ajoutée par la firme à son smartphone pour séduire le plus d’utilisateurs possible va de pair avec une optimisation des coûts de production et des procédures. Cette optimisation relègue l’innovation organisationnelle au moins au même niveau, si ce n’est plus, que l’innovation du produit lui-même qui ne fait que répondre à des besoins d’usage de manière marginale. En matière de smartphone, ce sont les utilisateurs les plus experts qui sauront déceler la pertinence de telle ou telle nouvelle fonctionnalité alors que l’utilisateur moyen n’y voit que des produits similaires.

L’enjeu dépasse la seule optimisation des chaînes de production et l’innovation. S. Zuboff a aussi montré que l’analyse des données plus fines sur les processus de production révèle aussi les comportements des travailleurs : l’attention, les pratiques quotidiennes, les risques d’erreur, la gestion du temps de travail, etc. Dès lors l’informationnalisation est aussi un moyen de rassembler des données sur les aspects sociaux de la production4, et par conséquent les conformer aux impératifs de rentabilité. L’exemple le plus frappant aujourd’hui de cet ajustement comportemental à la rentabilité par les moyens de l’analyse de données est le phénomène d’« Ubérisation » de l’économie5.

Ramené aux utilisateurs finaux des produits, dans la mesure où il est possible de rassembler des données sur l’utilisation elle-même, il devrait donc être possible de conformer les usages et les comportements de consommation (et non plus seulement de production) aux mêmes impératifs de rentabilité. Cela passe par exemple par la communication et l’apprentissage de nouvelles fonctionnalités des objets. Par exemple, si vous aviez l’habitude de stocker vos fichiers MP3 dans votre smartphone pour les écouter comme avec un baladeur, votre fournisseur vous permet aujourd’hui avec une connexion 4G d’écouter de la musique en streaming illimité, ce qui permet d’analyser vos goûts, vous proposer des playlists, et faire des bénéfices. Mais dans ce cas, si vous vous situez dans un endroit où la connexion haut débit est défaillante, voire absente, vous devez vous passer de musique ou vous habituer à prévoir à l’avance cette éventualité en activant un mode hors-connexion. Cette adaptation de votre comportement devient prévisible : l’important n’est pas de savoir ce que vous écoutez mais comment vous le faites, et ce paramètre entre lui aussi en ligne de compte dans la proposition musicale disponible.

Le nouveau paradigme économique du XXIe siècle, c’est le rassemblement des données, leur traitement et leurs valeurs prédictives, qu’il s’agisse des données de production comme des données d’utilisation par les consommateurs.

GAFAM : We <3 your Data
GAFAM : We <3 your Data

Big Data

Ces dernières décennies, l’informatique est devenu un média pour l’essentiel de nos activités sociales. Vous souhaitez joindre un ami pour aller boire une bière dans la semaine ? c’est avec un ordinateur que vous l’appelez. Voici quelques étapes grossières de cet épisode :

  1. votre mobile a signalé vers des antennes relais pour s’assurer de la couverture réseau,
  2. vous entrez un mot de passe pour déverrouiller l’écran,
  3. vous effectuez une recherche dans votre carnet d’adresse (éventuellement synchronisé sur un serveur distant),
  4. vous lancez le programme de composition du numéro, puis l’appel téléphonique (numérique) proprement dit,
  5. vous entrez en relation avec votre correspondant, convenez d’une date,
  6. vous envoyez ensuite une notification de rendez-vous avec votre agenda vers la messagerie de votre ami…
  7. qui vous renvoie une notification d’acceptation en retour,
  8. l’une de vos applications a géolocalisé votre emplacement et vous indique le trajet et le temps de déplacement nécessaire pour vous rendre au point de rendez-vous, etc.

Durant cet épisode, quel que soit l’opérateur du réseau que vous utilisez et quel que soit le système d’exploitation de votre mobile (à une ou deux exceptions près), vous avez produit des données exploitables. Par exemple (liste non exhaustive) :

  • le bornage de votre mobile indique votre position à l’opérateur, qui peut croiser votre activité d’émission-réception avec la nature de votre abonnement,
  • la géolocalisation donne des indications sur votre vitesse de déplacement ou votre propension à utiliser des transports en commun,
  • votre messagerie permet de connaître la fréquence de vos contacts, et éventuellement l’éloignement géographique.

Ramené à des millions d’utilisateurs, l’ensemble des données ainsi rassemblées entre dans la catégorie des Big Data. Ces dernières ne concernent pas seulement les systèmes d’informations ou les services numériques proposés sur Internet. La massification des données est un processus qui a commencé il y a longtemps, notamment par l’analyse de productivité dans le cadre de la division du travail, les analyses statistiques des achats de biens de consommation, l’analyse des fréquences de transaction boursières, etc. Tout comme ce fut le cas pour les processus de production qui furent automatisés, ce qui caractérise les Big Data c’est l’obligation d’automatiser leur traitement pour en faire l’analyse.

Prospection, gestion des risques, prédictibilité, etc., les Big Data dépassent le seul degré de l’analyse statistique dite descriptive, car si une de ces données renferme en général très peu d’information, des milliers, des millions, des milliards permettent d’inférer des informations dont la pertinence dépend à la fois de leur traitement et de leur gestion. Le tout dépasse la somme des parties : c’est parce qu’elles sont rassemblées et analysées en masse que des données d’une même nature produisent des valeurs qui dépassent la somme des valeurs unitaires.

Antoinette Rouvroy, dans un rapport récent6 auprès du Conseil de l’Europe, précise que les capacités techniques de stockage et de traitement connaissent une progression exponentielle7. Elle définit plusieurs catégories de data en fonction de leurs sources, et qui quantifient l’essentiel des actions humaines :

  • les hard data, produites par les institutions et administrations publiques ;
  • les soft data, produites par les individus, volontairement (via les réseaux sociaux, par exemple) ou involontairement (analyse des flux, géolocalisation, etc.) ;
  • les métadonnées, qui concernent notamment la provenance des données, leur trafic, les durées, etc. ;
  • l’Internet des objets, qui une fois mis en réseau, produisent des données de performance, d’activité, etc.

Les Big Data n’ont cependant pas encore de définition claire8. Il y a des chances pour que le terme ne dure pas et donne lieu à des divisions qui décriront plus précisément des applications et des méthodes dès lors que des communautés de pratiques seront identifiées avec leurs procédures et leurs réseaux. Aujourd’hui, l’acception générique désigne avant tout un secteur d’activité qui regroupe un ensemble de savoir-faire et d’applications très variés. Ainsi, le potentiel scientifique des Big Data est encore largement sous-évalué, notamment en génétique, physique, mathématiques et même en sociologie. Il en est de même dans l’industrie. En revanche, si on place sur un même plan la politique, le marketing et les activités marchandes (à bien des égards assez proches) on conçoit aisément que l’analyse des données optimise efficacement les résultats et permet aussi, par leur dimension prédictible, de conformer les biens et services.

Google fait peur ?

Eric Schmidt, actuellement directeur exécutif d’Alphabet Inc., savait exprimer en peu de mots les objectifs de Google lorsqu’il en était le président. Depuis 1998, les activités de Google n’ont cessé d’évoluer, jusqu’à reléguer le service qui en fit la célébrité, la recherche sur la Toile, au rang d’activité has been pour les internautes. En 2010, il dévoilait le secret de Polichinelle :

Le jour viendra où la barre de recherche de Google – et l’activité qu’on nomme Googliser – ne sera plus au centre de nos vies en ligne. Alors quoi ? Nous essayons d’imaginer ce que sera l’avenir de la recherche (…). Nous sommes toujours contents d’être dans le secteur de la recherche, croyez-moi. Mais une idée est que de plus en plus de recherches sont faites en votre nom sans que vous ayez à taper sur votre clavier.

En fait, je pense que la plupart des gens ne veulent pas que Google réponde à leurs questions. Ils veulent que Google dise ce qu’ils doivent faire ensuite. (…) La puissance du ciblage individuel – la technologie sera tellement au point qu’il sera très difficile pour les gens de regarder ou consommer quelque chose qui n’a pas été adapté pour eux.9

Google n’a pas été la première firme à exploiter des données en masse. Le principe est déjà ancien avec les premiers data centers du milieu des années 1960. Google n’est pas non plus la première firme à proposer une indexation générale des contenus sur Internet, par contre Google a su se faire une place de choix parmi la concurrence farouche de la fin des années 1990 et sa croissance n’a cessé d’augmenter depuis lors, permettant des investissements conséquents dans le développement de technologies d’analyse et dans le rachat de brevets et de plus petites firmes spécialisées. Ce que Google a su faire, et qui explique son succès, c’est proposer une expérience utilisateur captivante de manière à rassembler assez de données pour proposer en retour des informations adaptées aux profils des utilisateurs. C’est la radicalisation de cette stratégie qui est énoncée ici par Eric Schmidt. Elle trouve pour l’essentiel son accomplissement en utilisant les données produites par les utilisateurs du cloud computing. Les Big Data en sont les principaux outils.

D’autres firmes ont emboîté le pas. En résultat, la concentration des dix premières firmes de services numériques génère des bénéfices spectaculaires et limite la concurrence. Cependant, l’exploitation des données personnelles des utilisateurs et la manière dont elles sont utilisées sont souvent mal comprises dans leurs aspects techniques autant que par les enjeux économiques et politiques qu’elles soulèvent. La plupart du temps, la quantité et la pertinence des informations produites par l’utilisateur semblent négligeables à ses yeux, et leur exploitation d’une importance stratégique mineure. Au mieux, si elles peuvent encourager la firme à mettre d’autres services gratuits à disposition du public, le prix est souvent considéré comme largement acceptable. Tout au plus, il semble a priori moins risqué d’utiliser Gmail et Facebook, que d’utiliser son smartphone en pleine manifestation syndicale en France, puisque le gouvernement français a voté publiquement des lois liberticides et que les GAFAM ne livrent aux autorités que les données manifestement suspectes (disent-elles) ou sur demande rogatoire officielle (disent-elles).

Gigantismus

En 2015, Google Analytics couvrait plus de 70% des parts de marché des outils de mesure d’audience. Google Analytics est un outil d’une puissance pour l’instant incomparable dans le domaine de l’analyse du comportement des visiteurs. Cette puissance n’est pas exclusivement due à une supériorité technologique (les firmes concurrentes utilisent des techniques d’analyse elles aussi très performantes), elle est surtout due à l’exhaustivité monopolistique des utilisations de Google Analytics, disponible en version gratuite et premium, avec un haut degré de configuration des variables qui permettent la collecte, le traitement et la production très rapide de rapports (pratiquement en temps réel). La stratégie commerciale, afin d’assurer sa rentabilité, consiste essentiellement à coupler le profilage avec la régie publicitaire (Google AdWords). Ce modèle économique est devenu omniprésent sur Internet. Qui veut être lu ou regardé doit passer l’épreuve de l’analyse « à la Google », mais pas uniquement pour mesurer l’audience : le monopole de Google sur ces outils impose un web rédactionnel, c’est-à-dire une méthode d’écriture des contenus qui se prête à l’extraction de données.

Google n’est pas la seule entreprise qui réussi le tour de force d’adapter les contenus, quelle que soit leur nature et leurs propos, à sa stratégie commerciale. C’est le cas des GAFAM qui reprennent en chœur le même modèle économique qui conforme l’information à ses propres besoins d’information. Que vous écriviez ou non un pamphlet contre Google, l’extraction et l’analyse des données que ce contenu va générer indirectement en produisant de l’activité (visites, commentaires, échanges, temps de connexion, provenance, etc.) permettra de générer une activité commerciale. Money is money, direz-vous. Pourtant, la concentration des activités commerciales liées à l’exploitation des Big Data par ces entreprises qui forment les premières capitalisations boursières du monde, pose un certain nombre répercutions sociales : l’omniprésence mondialisée des firmes, la réduction du marché et des choix, l’impuissance des États, la sur-financiarisation.

Omniprésence

En produisant des services gratuits (ou très accessibles), performants et à haute valeur ajoutée pour les données qu’ils produisent, ces entreprises captent une gigantesque part des activités numériques des utilisateurs. Elles deviennent dès lors les principaux fournisseurs de services avec lesquels les gouvernements doivent composer s’ils veulent appliquer le droit, en particulier dans le cadre de la surveillance des populations et des opérations de sécurité. Ainsi, dans une démarche très pragmatique, des ministères français parmi les plus importants réunirent le 3 décembre 2015 les « les grands acteurs de l’internet et des réseaux sociaux » dans le cadre de la stratégie anti-terroriste10. Plus anciennement, le programme américain de surveillance électronique PRISM, dont bien des aspects furent révélés par Edward Snowden en 2013, a permit de passer durant des années des accords entre la NSA et l’ensemble des GAFAM. Outre les questions liées à la sauvegarde du droit à la vie privée et à la liberté d’expression, on constate aisément que la surveillance des populations par les gouvernements trouve nulle part ailleurs l’opportunité de récupérer des données aussi exhaustives, faisant des GAFAM les principaux prestataires de Big Data des gouvernements, quels que soient les pays11.

Réduction du marché

Le monopole de Google sur l’indexation du web montre qu’en vertu du gigantesque chiffre d’affaires que cette activité génère, celle-ci devient la première et principale interface du public avec les contenus numériques. En 2000, le journaliste Laurent Mauriac signait dans Libération un article élogieux sur Google12. À propos de la méthode d’indexation qui en fit la célébrité, L. Mauriac écrit :

Autre avantage : ce système empêche les sites de tricher. Inutile de farcir la partie du code de la page invisible pour l’utilisateur avec quantité de mots-clés…

Or, en 2016, il devient assez évident de décortiquer les stratégies de manipulation de contenus que les compagnies qui en ont les moyens financiers mettent en œuvre pour dominer l’index de Google en diminuant ainsi la diversité de l’offre13. Que la concentration des entreprises limite mécaniquement l’offre, cela n’est pas révolutionnaire. Ce qui est particulièrement alarmant, en revanche, c’est que la concentration des GAFAM implique par effets de bord la concentration d’autres entreprises de secteurs entièrement différents mais qui dépendent d’elles en matière d’information et de visibilité. Cette concentration de second niveau, lorsqu’elle concerne la presse en ligne, les éditeurs scientifiques ou encore les libraires, pose à l’évidence de graves questions en matière de liberté d’information.

Impuissances

La concentration des services, qu’il s’agisse de ceux de Google comme des autres géants du web, sur des secteurs biens découpés qui assurent les monopoles de chaque acteur, cause bien des soucis aux États qui voient leurs économies impactées selon les revenus fiscaux et l’implantation géographique de ces compagnies. Les lois anti-trust semblent ne plus suffire lorsqu’on voit, par exemple, la Commission Européenne avoir toutes les peines du monde à freiner l’abus de position dominante de Google sur le système Android, sur Google Shopping, sur l’indexation, et de manière générale depuis 2010.

Illustration cynique devant l’impuissance des États à réguler cette concentration, Google a davantage à craindre de ses concurrents directs qui ont des moyens financiers largement supérieurs aux États pour bloquer sa progression sur les marchés. Ainsi, cet accord entre Microsoft et Google, qui conviennent de régler désormais leurs différends uniquement en privé, selon leurs propres règles, pour ne se concentrer que sur leur concurrence de marché et non plus sur la législation. Le message est double : en plus d’instaurer leur propre régulation de marché, Google et Microsoft en organiseront eux-mêmes les conditions juridiques, reléguant le rôle de l’État au second plan, voire en l’éliminant purement et simplement de l’équation. C’est l’avènement des Léviathans dont j’avais déjà parlé dans un article antérieur.

Alphabet. CC-by-sa, Framatophe
Alphabet. CC-by-sa, Framatophe

Capitaux financiers

La capitalisation boursière des GAFAM a atteint un niveau jamais envisagé jusqu’à présent dans l’histoire, et ces entreprises figurent toutes dans le top 40 de l’année 201514. La valeur cumulée de GAFAM en termes de capital boursier en 2015 s’élève à 1 838 milliards de dollars. À titre de comparaison, le PIB de la France en 2014 était de 2 935 milliards de dollars et celui des Pays Bas 892 milliards de dollars.

La liste des acquisitions de Google explique en partie la cumulation de valeurs boursières. Pour une autre partie, la plus importante, l’explication concerne l’activité principale de Google : la valorisation des big data et l’automatisation des tâches d’analyse de données qui réduisent les coûts de production (à commencer par les frais d’infrastructure : Google a besoin de gigantesque data centers pour le stockage, mais l’analyse, elle, nécessite plus de virtualisation que de nouveaux matériels ou d’employés). Bien que les cheminements ne soient pas les mêmes, les entreprises GAFAM ont abouti au même modèle économique qui débouche sur le status quo de monopoles sectorisés. Un élément de comparaison est donné par le Financial Times en août 2014, à propos de l’industrie automobile vs l’économie numérique :

Comparons Detroit en 1990 et la Silicon Valley en 2014. Les 3 plus importantes compagnies de Detroit produisaient des bénéfices à hauteur de 250 milliards de dollars avec 1,2 million d’employés et la cumulation de leurs capitalisations boursières totalisait 36 milliards de dollars. Le 3 premières compagnies de la Silicon Valley en 2014 totalisaient 247 milliards de dollars de bénéfices, avec seulement 137 000 employés, mais un capital boursier de 1,09 mille milliard de dollars.15

La captation d’autant de valeurs par un petit nombre d’entreprises et d’employés, aurait été analysée, par exemple, par Schumpeter comme une chute inévitable vers la stagnation en raison des ententes entre les plus puissants acteurs, la baisse des marges des opérateurs et le manque d’innovation. Pourtant cette approche est dépassée : l’innovation à d’autres buts (produire des services, même à perte, pour capter des données), il est très difficile d’identifier le secteur d’activité concerné (Alphabet regroupe des entreprises ultra-diversifiées) et donc le marché est ultra-malléable autant qu’il ne représente que des données à forte valeur prédictive et possède donc une logique de plus en plus maîtrisée par les grands acteurs.


  1. Michel Liu, « Technologie, organisation du travail et comportement des salariés », Revue française de sociologie, 22/2 1981, pp. 205-221.
  2. Voir sur ce point Robert Blauner, Alienation and Freedom. The Factory Worker and His Industry, Chicago: Univ. Chicago Press, 1965.
  3. Shoshana Zuboff, In The Age Of The Smart Machine: The Future Of Work And Power, New York: Basic Books, 1988.
  4. En guise d’illustration de tests (proof of concepts) discrets menés dans les entreprises aujourd’hui, on peut se reporter à cet article de Rue 89 Strasbourg sur cette société alsacienne qui propose, sous couvert de challenge collectif, de monitorer l’activité physique de ses employés. Rémi Boulle, « Chez Constellium, la collecte des données personnelles de santé des employés fait débat », Rue 89 Strasbourg, juin 2016.
  5. Par exemple, dans le cas des livreurs à vélo de plats préparés utilisés par des sociétés comme Foodora ou Take Eat Easy, on constate que ces sociétés ne sont qu’une interface entre les restaurants et les livreurs. Ces derniers sont auto-entrepreneurs, payés à la course et censés assumer toutes les cotisations sociales et leurs salaires uniquement sur la base des courses que l’entreprise principale pourra leur confier. Ce rôle est automatisé par une application de calcul qui rassemble les données géographiques et les performances (moyennes, vitesse, assiduité, etc.) des livreurs et distribue automatiquement les tâches de livraisons. Charge aux livreurs de se trouver au bon endroit au bon moment. Ce modèle économique permet de détacher l’entreprise de toutes les externalités ou tâches habituellement intégrées qui pourraient influer sur son chiffre d’affaires : le matériel du livreur, l’assurance, les cotisations, l’accidentologie, la gestion du temps de travail, etc., seule demeure l’activité elle-même automatisée et le livreur devient un exécutant dont on analyse les performances. L’« Ubérisation » est un processus qui automatise le travail humain, élimine les contraintes sociales et utilise l’information que l’activité produit pour ajuster la production à la demande (quels que soient les risques pris par les livreurs, par exemple pour remonter les meilleures informations concernant les vitesses de livraison et se voir confier les prochaines missions). Sur ce sujet, on peut écouter l’émission Comme un bruit qui court de France Inter qui diffusa le reportage de Giv Anquetil le 11 juin 2016, intitulé « En roue libre ».
  6. Antoinette Rouvroy, Des données et des hommes. Droits et libertés fondamentaux dans un monde de données massives, Bureau du comité consultatif de la convention pour la protection des personnes à l’égard du traitement automatisé des données à caractère personnel, Conseil de l’Europe, janvier 2016.
  7. En même temps qu’une réduction de leur coût de production (leur coût d’exploitation ou d’analyse, en revanche, explose).
  8. On peut s’intéresser à l’origine de l’expression en lisant cet article de Francis X. Diebold, « On the Origin(s) and Development of the Term ‘Big Data’ », Penn Institute For Economic Research, Working Paper 12-037, 2012.
  9. Holman W. Jenkins, « Google and the Search for the Future The Web icon’s CEO on the mobile computing revolution, the future of newspapers, and privacy in the digital age », The Wall Street Journal, 14/08/2010.
  10. Communiqué du Premier ministre, Réunion de travail avec les grands acteurs de l’Internet et des réseaux sociaux, Paris : Hôtel Matignon, 3/12/2015.
  11. Même si Apple a déclaré ne pas entrer dans le secteur des Big Data, il n’en demeure pas moins qu’il en soit un consommateur comme un producteur d’envergure mondiale.
  12. Laurent Mauriac, « Google, moteur en explosion », Libération, 29 juin 2000.
  13. Vincent Abry, « Au revoir la diversité. Quand 16 compagnies dominent complètement l’index Google », article de Blog personnel, voir la version archivée.
  14. PwC, Global Top 100 Companies by market capitalisation, (31/03/2015). Ces données sont à revoir en raison de l’éclatement de Google dans une sorte de holding nommée Alphabet début 2016.
  15. James Manyika et Michael Chui, « Digital era brings hyperscale challenges » (image), The Financial Times, 13/08/2014. Cité par S. Zuboff, « Big Other… », op. cit..



Les nouveaux Léviathans I — Histoire d’une conversion capitaliste (b)

Qu’est-ce qui fait courir Framasoft ?  De la campagne Dégooglisons à l’initiative C.H.A.T.O.N.S quelles idées ont en tête les acteurs et soutiens de l’association ? Vous êtes curieux ? Vous reprendrez bien une tranche de Léviathan ?


Pour vous inviter à aller au-delà des apparences (la sympathique petite tribu d’amateurs gaulois qui veut modestement mettre son grain de sable dans la loi des entreprises hégémoniques) nous vous proposons non seulement un moment de réflexion, mais pour une fois une série de considérations nourries, argumentées et documentées sur l’état de bascule que nous vivons et dans lequel nous prétendons inscrire notre action avec vous.

Jamais le logiciel libre et les valeurs qu’il porte n’ont été autant à la croisée des chemins, car il ne s’agit pas de proposer seulement des alternatives techniques, c’est un défi économique et politique qu’il doit relever.

Entre les États qui nous surveillent et les GAFAM qui nous monétisent, jamais le refuge du secret, celui de l’intime, n’a été aussi attaqué ni menacé. Pour représenter le monstre à plusieurs têtes, Christophe Masutti qui est l’auteur de cette série de réflexions, a choisi la figure emblématique du Léviathan, forgée déjà par Hobbes en particulier pour désigner l’État toujours plus avide de domination.

C’est donc une série de Léviathans nouveaux et anciens que nous vous invitons à découvrir par étapes, tout au long de cette semaine, qui vous conduiront peut-être à comprendre et adopter notre démarche. Car une fois établies les sources du mal et posé le diagnostic, que faire ? Les perspectives que nous proposons seront peut-être les vôtres.

(suite de la première section)

Note de l’auteur :Dans cette première partie (Léviathans I), je tente de synthétiser les transformations des utopies numériques des débuts de l’économie informatique vers ce que S. Zuboff nomme le « capitalisme de surveillance ». Dans cette histoire, le logiciel libre apparaît non seulement comme un élément disruptif présent dès les premiers âges de cette conversion capitaliste (Léviathans Ia), mais aussi comme le moyen de faire valoir la primauté de nos libertés individuelles face aux comportements imposés par un nouvel ordre numérique (Léviathans Ib). La dégooglisation d’Internet n’est plus un souhait, c’est un impératif !

Piller le code, imposer des usages

À la fin des années 1990, c’est au nom de ce réalisme capitaliste, que les promoteurs de l’Open Source Initiative avaient compris l’importance de maintenir des codes sources ouverts pour faciliter un terreau commun permettant d’entretenir le marché. Ils voyaient un frein à l’innovation dans les contraintes des licences du logiciel libre tel que le proposaient Richard Stallman et la Free Software Foundation (par exemple, l’obligation de diffuser les améliorations d’un logiciel libre sous la même licence, comme l’exige la licence GNU GPL – General Public License). Pour eux, l’ouverture du code est une opportunité de création et d’innovation, ce qui n’implique pas forcément de placer dans le bien commun les résultats produits grâce à cette ouverture. Pas de fair play : on pioche dans le bien commun mais on ne redistribue pas, du moins, pas obligatoirement.

Les exemples sont nombreux de ces entreprises qui utilisent du code source ouvert sans même participer à l’amélioration de ce code, voire en s’octroyant des pans entiers de ce que des généreux programmeurs ont choisi de verser dans le bien commun. D’autres entreprises trouvent aussi le moyen d’utiliser du code sous licence libre GNU GPL en y ajoutant tant de couches successives de code privateur que le système final n’a plus rien de libre ni d’ouvert. C’est le cas du système Android de Google, dont le noyau est Linux.

Jamais jusqu’à aujourd’hui le logiciel libre n’avait eu de plus dur combat que celui non plus de proposer une simple alternative à informatique privateur, mais de proposer une alternative au modèle économique lui-même. Pas seulement l’économie de l’informatique, dont on voudrait justement qu’il ne sorte pas, mais un modèle beaucoup plus général qui est celui du pillage intellectuel et physique qui aliène les utilisateurs et, donc, les citoyens. C’est la raison pour laquelle le discours de Richard Stallman est un discours politique avant tout.

La fameuse dualité entre open source et logiciel libre n’est finalement que triviale. On n’a pas tort de la comparer à une querelle d’église même si elle reflète un mal bien plus général. Ce qui est pillé aujourd’hui, ce n’est plus seulement le code informatique ou les libertés des utilisateurs à pouvoir disposer des programmes. Même si le principe est (très) loin d’être encore communément partagé dans l’humanité, le fait de cesser de se voir imposer des programmes n’est plus qu’un enjeu secondaire par rapport à une nouvelle voie qui se dévoile de plus en plus : pour maintenir la pression capitaliste sur un marché verrouillé par leurs produits, les firmes cherchent désormais à imposer des comportements. Elles ne cherchent plus à les induire comme on pouvait dire d’Apple que le design de ses produits provoquait un effet de mode, une attitude « cool ». Non : la stratégie a depuis un moment déjà dépassé ce stade.

Un exemple révélateur et particulièrement cynique, la population belge en a fait la terrible expérience à l’occasion des attentats commis à Bruxelles en mars 2016 par de sombres crétins, au prix de dizaines de morts et de centaines de blessés. Les médias déclarèrent en chœur, quelques heures à peine après l’annonce des attentats, que Facebook déclenchait le « Safety Check ». Ce dispositif propre à la firme avait déjà été éprouvé lors des attentats de Paris en novembre 2015 et cet article de Slate.fr en montre bien les enjeux. Avec ce dispositif, les personnes peuvent signaler leur statut à leurs amis sur Facebook en situation de catastrophe ou d’attentat. Qu’arrive-t-il si vous n’avez pas de compte Facebook ou si vous n’avez même pas l’application installée sur votre smartphone ? Vos amis n’ont plus qu’à se consumer d’inquiétude pour vous.

Facebook safety check fr
Facebook safety check fr

La question n’est pas tant de s’interroger sur l’utilité de ce dispositif de Facebook, mais plutôt de s’interroger sur ce que cela implique du point de vue de nos comportements :

  • Le devoir d’information : dans les médias, on avait l’habitude, il y a encore peu de temps, d’avoir à disposition un « numéro vert » ou un site internet produits par les services publics pour informer la population. Avec les attentats de Bruxelles, c’est le « Safety Check » qui fut à l’honneur. Ce n’est plus à l’État d’assurer la prise en charge de la détresse, mais c’est à Facebook de le faire. L’État, lui, a déjà prouvé son impuissance puisque l’attentat a eu lieu, CQFD. On retrouve la doctrine du « moins d’État ».
  • La morale : avec la crainte qu’inspire le contexte du terrorisme actuel, Facebook joue sur le sentiment de sollicitude et propose une solution technique à un problème moral : ai-je le devoir ou non, envers mes proches, de m’inscrire sur Facebook ?
  • La norme : le comportement normal d’un citoyen est d’avoir un smartphone, de s’inscrire sur Facebook, d’être en permanence connecté à des services qui lui permettent d’être localisé et tracé. Tout comportement qui n’intègre pas ces paramètres est considéré comme déviant non seulement du point de vue moral mais aussi, pourquoi pas, du point de vue sécuritaire.

Ce cas de figure est extrême mais son principe (conformer les comportements) concerne des firmes aussi gigantesques que Google, Apple, Facebook, Amazon, Microsoft (GAFAM) et d’autres encore, parmi les plus grandes capitalisations boursières du monde. Ces dernières sont aujourd’hui capables d’imposer des usages et des comportements parce qu’elles proposent toutes une seule idéologie : leurs solutions techniques peuvent remplacer plus efficacement les pouvoirs publics à la seule condition d’adhérer à la communauté des utilisateurs, de « prendre la citoyenneté » Google, Apple, Facebook, Microsoft. Le rêve californien de renverser le Léviathan est en train de se réaliser.

Vers le capitalisme de surveillance

Ce mal a récemment été nommé par une professeure de Harvard, Shoshana Zuboff dans un article intitulé « Big Other: Surveillance Capitalism and the Prospects of an Information Civilization »1. S. Zuboff analyse les implications de ce qu’elle nomme le « capitalisme de surveillance » dans notre société connectée.

L’expression a récemment été reprise par Aral Balkan, dans un texte traduit sur le Framablog intitulé : « La nature du ‘soi’ à l’ère numérique ». A. Balkan interroge l’impact du capitalisme de surveillance sur l’intégrité de nos identités, à travers nos pratiques numériques. Pour le citer :

La Silicon Valley est la version moderne du système colonial d’exploitation bâti par la Compagnie des Indes Orientales, mais elle n’est ni assez vulgaire, ni assez stupide pour entraver les individus avec des chaînes en fer. Elle ne veut pas être propriétaire de votre corps, elle se contente d’être propriétaire de votre avatar. Et maintenant, (…) plus ces entreprises ont de données sur vous, plus votre avatar est ressemblant, plus elles sont proches d’être votre propriétaire.

C’est exactement ce que démontre S. Zuboff (y compris à travers toute sa bibliographie). Dans l’article cité, à travers l’exemple des pratiques de Google, elle montre que la collecte et l’analyse des données récoltées sur les utilisateurs permet l’émergence de nouvelles formes contractuelles (personnalisation, expérience immersive, etc.) entre la firme et ses utilisateurs. Cela induit des mécanismes issus de l’extraction des données qui débouchent sur deux principes :

  • la marchandisation des comportements : par exemple, les sociétés d’assurance ne peuvent que s’émouvoir des données géolocalisées des véhicules ;
  • le contrôle des comportements : il suffit de penser, par exemple, aux applications de e-health promues par des assurances-vie et des mutuelles, qui incitent l’utilisateur à marcher X heures par jour.

Dans un article paru dans le Frankfurter Allgemeine Zeitung le 24 mars 2016 (« The Secrets of Surveillance Capitalism »), S. Zuboff relate les propos de l’analyste (de données) en chef d’une des plus grandes firmes de la Silicon Valley :

Le but de tout ce que nous faisons est de modifier le comportement des gens à grande échelle. Lorsqu’ils utilisent nos applications, nous pouvons enregistrer leurs comportements, identifier les bons et les mauvais comportements, et développer des moyens de récompenser les bons et pénaliser les mauvais.

Pour S. Zuboff, cette logique d’accumulation et de traitement des données aboutit à un projet de surveillance lucrative qui change radicalement les mécanismes habituels entre l’offre et la demande du capitalisme classique. En cela, le capitalisme de surveillance modifie radicalement les principes de la concurrence libérale qui pensait les individus autonomes et leurs choix individuels, rationnels et libres, censés équilibrer les marchés. Qu’on ait adhéré ou non à cette logique libérale (plus ou moins utopiste, elle aussi, sur certains points) le fait est que, aujourd’hui, ce capitalisme de surveillance est capable de bouleverser radicalement les mécanismes démocratiques. J’aurai l’occasion de revenir beaucoup plus longuement sur le capitalisme de surveillance dans le second volet des Nouveaux Léviathans, mais on peut néanmoins affirmer sans plus d’élément qu’il pose en pratique des questions politiques d’une rare envergure.

Ce ne serait rien, si, de surcroît certains décideurs politiques n’étaient particulièrement pro-actifs, face à cette nouvelle forme du capitalisme. En France, par exemple, la première version du projet de Loi Travail soutenu par la ministre El Khomri en mars 2016 entrait parfaitement en accord avec la logique du capitalisme de surveillance. Dans la première version du projet, au chapitre Adaptation du droit du travail à l’ère numérique, l’article 23 portait sur les plateformes collaboratives telles Uber. Cet article rendait impossible la possibilité pour les « contributeurs » de Uber (les chauffeurs VTC) de qualifier leur emploi au titre de salariés de cette firme, ceci afin d’éviter les luttes sociales comme les travailleurs de Californie qui se sont retournés contre Uber dans une bataille juridique mémorable. Si le projet de loi El Khomri cherche à éliminer le salariat du rapport entre travail et justice, l’enjeu dépasse largement le seul point de vue juridique.

Google est l’un des actionnaires majoritaires de Uber, et ce n’est pas pour rien : d’ici 5 ou 6 ans, nous verrons sans doute les premières voitures sans chauffeur de Google arriver sur le marché. Dès lors, que faire de tous ces salariés chauffeurs de taxi ? La meilleure manière de s’en débarrasser est de leur supprimer le statut de salariés : en créant une communauté de contributeurs Uber à leur propre compte , il devient possible de se passer des chauffeurs puisque ce métier n’existera plus (au sens de corporation) ou sera en voie d’extinction. Ce faisant, Uber fait d’une pierre deux coups : il crée aussi une communauté d’utilisateurs, habitués à utiliser une plate-forme de service de voiturage pour accomplir leurs déplacements. Uber connaît donc les besoins, analyse les déplacements, identifie les trajets et rassemble un nombre incroyable de données qui prépareront efficacement la venue de la voiture sans chauffeur de Google. Que cela n’arrange pas l’émission de pollution et empêche de penser à des moyens plus collectifs de déplacement n’est pas une priorité (quoique Google a déjà son service de bus).

Il faut dégoogliser !

Parmi les moyens qui viennent à l’esprit pour s’en échapper, on peut se demander si le capitalisme de surveillance est soluble dans la bataille pour le chiffrement qui refait surface à l’occasion des vagues terroristes successives. L’idée est tentante : si tous les utilisateurs étaient en mesure de chiffrer leurs communications, l’extraction de données de la part des firmes n’en serait que contrariée. Or, la question du chiffrement n’est presque déjà plus d’actualité que pour les représentants politiques en mal de sensations. Tels certains ministres qui ressassent le sempiternel refrain selon lequel le chiffrement permet aux terroristes de communiquer.

Outre le fait que la pratique « terroriste » du chiffrement reste encore largement à prouver, on se rappelle la bataille récente entre le FBI et Apple dans le cadre d’une enquête terroriste, où le FBI souhaitait obtenir de la part d’Apple un moyen (exploitation de backdoor) de faire sauter le chiffrement d’un IPhone. Le FBI ayant finalement trouvé une solution alternative, que nous apprend cette dispute ? Certes, Apple veut garder la confiance de ses utilisateurs. Certes, le chiffrement a bien d’autres applications bénéfiques, en particulier lorsqu’on consulte à distance son compte en banque ou que l’on transfère des données médicales. Dès lors, la mesure est vite prise entre d’un côté des gouvernements cherchant à déchiffrer des communications (sans même être sûr d’y trouver quoi que ce soit d’intéressant) et la part gigantesque de marché que représente le transfert de données chiffrées. Peu importe ce qu’elles contiennent, l’essentiel est de comprendre non pas ce qui est échangé, mais qui échange avec qui, pour quelles raisons, et comment s’immiscer en tant qu’acteur de ces échanges. Ainsi, encore un exemple parmi d’autres, Google a déployé depuis longtemps des systèmes de consultation médicale à distance, chiffrées bien entendu : « si vous voulez un tel service, nous sommes capables d’en assurer la sécurité, contrairement à un État qui veut déchiffrer vos communications ». Le chiffrement est un élément essentiel du capitalisme de surveillance, c’est pourquoi Apple y tient tant : il instaure un degré de confiance et génère du marché.

Apple : Kids, don’t do drugs
Apple : Kids, don’t do drugs

Nous pourrions passer en revue plusieurs systèmes alternatifs qui permettraient de s’émanciper plus ou moins du capitalisme de surveillance. Les solutions ne sont pas uniquement techniques : elles résident dans le degré de connaissance des enjeux de la part des populations. Il ne suffit pas de ne plus utiliser les services de courriel de Google, surtout si on apprécie l’efficacité de ce service. Il faut se poser la question : « si j’ai le choix d’utiliser ou non Gmail, dois-je pour autant imposer à mon correspondant qu’il entre en relation avec Google en me répondant à cette adresse ? ». C’est exactement le même questionnement qui s’impose lorsque j’envoie un document en format Microsoft en exigeant indirectement de mon correspondant qu’il ait lui aussi le même logiciel pour l’ouvrir.

L’enjeu est éthique. Dans la Règle d’Or, c’est la réciprocité qui est importante (« ne fais pas à autrui ce que tu n’aimerais pas qu’on te fasse »). Appliquer cette règle à nos rapports technologiques permet une prise de conscience, l’évaluation des enjeux qui dépasse le seul rapport individuel, nucléarisé, que j’ai avec mes pratiques numériques et que le capitalisme de surveillance cherche à m’imposer. Si je choisis d’installer sur mon smartphone l’application de géolocalisation que m’offre mon assureur en guise de test contre un avantage quelconque, il faut que je prenne conscience que je participe directement à une mutation sociale qui imposera des comportements pour faire encore davantage de profits. C’est la même logique à l’œuvre avec l’ensemble des solutions gratuites que nous offrent les GAFAM, à commencer par le courrier électronique, le stockage en ligne, la cartographie et la géolocalisation.

Faut-il se passer de toutes ces innovations ? Bien sûr que non ! le retranchement anti-technologique n’est jamais une solution. D’autant plus qu’il ne s’agit pas non plus de dénigrer les grands bienfaits d’Internet. Par contre, tant que subsisteront dans l’ADN d’Internet les concepts d’ouverture et de partage, il sera toujours possible de proposer une alternative au capitalisme de surveillance. Comme le phare console le marin dans la brume, le logiciel libre et les modèles collaboratifs qu’il véhicule représentent l’avenir de nos libertés. Nous ne sommes plus libres si nos comportements sont imposés. Nous ne sommes pas libres non plus dans l’ignorance technologique.

Il est donc plus que temps de Dégoogliser Internet en proposant non seulement d’autres services alternatifs et respectueux des utilisateurs, mais surtout les moyens de multiplier les solutions et décentraliser les usages. Car ce qu’il y a de commun entre le capitalisme classique et le capitalisme de surveillance, c’est le besoin centralisateur, qu’il s’agisse des finances ou des données. Ah ! si tous les CHATONS du monde pouvaient se donner la patte…


  1. Shoshana Zuboff, « Big Other: Surveillance Capitalism and the Prospects of an Information Civilization », Journal of Information Technology, 30, 2015, pp. 75-89.



Le chiffrement ne suffira pas

Le chiffrement, s’il n’est pas encore dans tous nos usages — et loin s’en faut, chez la plupart des utilisateurs, est nettement devenu un argument marketing et une priorité pour les entreprises qui distribuent logiciels et services. En effet, le grand public est beaucoup plus sensible désormais à l’argument de la sécurité de la vie privée. Donc les services qui permettent la communication en ligne rivalisent d’annonces pour promettre et garantir une sécurité toujours plus grande et que l’on puisse activer d’un simple clic.

Que faut-il croire, à qui et quoi pouvons-nous confier nos communications ?

L’article de Hannes Hauswedell que nous avons traduit nous aide à faire un tri salutaire entre les solutions logicielles du marché, pointe les faux-semblants et les failles, puis nous conduit tranquillement à envisager des solutions fédérées et pair à pair reposant sur des logiciels libres. Des réseaux de confiance en somme, ce qui est proche de l’esprit de l’initiative C.H.A.T.O.N.S portée par Framasoft et qui suscite déjà un intérêt grandissant.

Comme d’habitude les commentaires sont ouverts et libres si vous souhaitez par exemple ajouter vos découvertes à ce recensement critique forcément incomplet.

 

Préserver sa vie privée, au-delà du chiffrement

par Hannes Hauswedell

d’après l’article publié sur son blog : Why Privacy is more than Crypto

Traduction Framalang : egilli, Lumi, goofy, roptat, lyn, tchevalier, touriste, Edgar Lori, Penguin

Au cours de l’année dernière on a pu croire que les poules avaient des dents quand les grandes entreprises hégémoniques comme Apple, Google et Facebook ont toutes mis en œuvre le chiffrement à un degré ou un autre. Pour Facebook avec WhatsApp et Google avec Allo, le chiffrement de la messagerie a même été implémenté par rien moins que le célèbre Moxie Marlinspike, un hacker anarchiste qui a la bénédiction d’Edward Snowden !
Donc tout est pour le mieux sur le front de la défense de la vie privée !… Euh, vraiment ?

Sommaire

1. Le chiffrement
2. Logiciels libres et intégrité des appareils
3. Décentralisation, contrôle par les distributeurs et métadonnées
4. En deux mots (pour les moins courageux)

J’ai déjà développé mon point de vue sur la sécurité de la messagerie mobile et j’en ai parlé dans un podcast (en allemand). Mais j’ai pensé qu’il fallait que j’y revienne, car il existe une certaine confusion sur ce que signifient sécurité et confidentialité (en général, mais particulièrement dans le contexte de la messagerie), et parce que les récentes annonces dans ce domaine ne donnent selon moi qu’un sentiment illusoire de sécurité.

Je vais parler de WhatsApp et de Facebook Messenger (tous deux propriétés de Facebook), de Skype (possédé par Microsoft), de Telegram, de Signal (Open Whisper systems), Threema (Threema GmbH), Allo (possédé par Google) et de quelques clients XMPP, je dirai aussi un mot de ToX et Briar. Je n’aborderai pas les diverses fonctionnalités mêmes si elles sont liées à la confidentialité, comme les notifications évidemment mal conçues du type « le message a été lu ». Je n’aborderai pas non plus les questions d’anonymat qui sont connexes, mais selon moi moins importantes lorsqu’il s’agit d’applis de substitution aux SMS, puisque vous connaissez vos contacts de toutes façons.

Le chiffrement

Quand on parle de confidentialité ou de sécurité des communications dans les messageries, il s’agit souvent de chiffrement ou, plus précisément, du chiffrement des données qui se déplacent, de la protection de vos messages pendant qu’ils voyagent vers vos contacts.

computer-1294045_640

Il existe trois moyens classiques pour faire cela :

  1. pas de chiffrement : tout le monde sur votre réseau WIFI local ou un administrateur système quelconque du réseau internet peut lire vos données
  2. le chiffrement en transit : la connexion au et à partir du fournisseur de service, par exemple les serveurs WhatsApp, et entre les fournisseurs de services est sécurisée, mais le fournisseur de service peut lire le message
  3. le chiffrement de bout en bout : le message est lisible uniquement par ceux à qui la conversation est adressée, mais le moment de la communication et les participants sont connus du fournisseur de service

Il y a aussi une propriété appelée « confidentialité persistante » (perfect forward secrecy en anglais) qui assure que les communications passées ne peuvent être déchiffrées, même si la clef à long terme est révélée ou volée.

À l’époque, la plupart des applications, même WhatsApp, appartenaient à la première catégorie. Mais aujourd’hui presque toutes les applications sont au moins dans la deuxième. La probabilité d’un espionnage insoupçonné en est réduite (c’est toujours possible pour les courriels par exemple), mais ce n’est évidemment pas suffisant, puisque le fournisseur de service peut être malveillant ou forcé de coopérer avec des gouvernements malveillants ou des agences d’espionnage sans contrôle démocratique.

C’est pour cela que vous voulez que votre messagerie fasse du chiffrement de bout en bout. Actuellement, les messageries suivantes le font (classées par taille supposée) : WhatsApp, Signal, Threema, les clients XMPP avec GPG/OTR/Omemo (ChatSecure, Conversations, Kontalk).

Les messageries qui disposent d’un mode spécifique (« chat secret » ou « mode incognito ») sont Telegram et Google Allo. Il est vraiment dommage qu’il ne soit pas activé par défaut, donc je ne vous les recommande pas. Si vous devez utiliser l’un de ces programmes, assurez-vous toujours d’avoir sélectionné le mode privé. Il est à noter que les experts considèrent que le chiffrement de bout en bout de Telegram est moins robuste, même s’ils s’accordent à dire que les attaques concrètes pour récupérer le texte d’un message ne sont pas envisageables.

D’autres programmes populaires, comme la messagerie de Facebook ou Skype n’utilisent pas de chiffrement de bout en bout, et devraient être évités. Il a été prouvé que Skype analyse vos messages, je ne m’attarderai donc pas sur ces deux-là.

Logiciels libres et intégrité des appareils

Donc maintenant, les données sont en sécurité tant qu’elles voyagent de vous à votre ami. Mais qu’en est-il avant et après leur envoi ? Ne pouvez-vous pas aussi tenter d’espionner le téléphone de l’expéditeur ou du destinataire avant qu’elles ne soient envoyées et après leur réception ? Oui c’est possible et en Allemagne le gouvernement a déjà activement utilisé la « Quellen-Telekommunikationsüberwachung » (surveillance des communications à la source) précisément pour passer outre le chiffrement.

Revenons à la distinction entre (2) et (3). La différence principale entre le chiffrement en transit et de bout en bout est que vous n’avez plus besoin de faire confiance au fournisseur de service… FAUX : Dans presque tous les cas, la personne qui fait tourner le serveur est la même que celle qui fournit le programme. Donc forcément, vous devez croire que le logiciel fait bien ce qu’il dit faire. Ou plutôt, il doit y avoir des moyens sociaux et techniques qui vous donnent suffisamment de certitude que le logiciel est digne de confiance. Sinon, la valeur ajoutée du chiffrement de bout en bout est bien maigre.

linux-hedi-magroun-auf-2008-11-638

La liberté des logiciels

C’est maintenant que le logiciel libre entre en jeu. Si le code source est publié, il y aura un grand nombre de hackers et de volontaires pour vérifier que le programme chiffre vraiment le contenu. Bien que ce contrôle public ne puisse vous donner une sécurité parfaite, ce processus est largement reconnu comme étant le meilleur pour assurer qu’un programme est globalement sûr et que les problèmes de sécurité sont découverts (et aussi corrigés). Le logiciel libre permet aussi de créer des versions non officielles ou rivales de l’application de messagerie, qui seront compatibles. S’il y a certaines choses que vous n’aimez pas ou auxquelles vous ne faites pas confiance dans l’application officielle, vous pourrez alors toujours en choisir une autre et continuer de chatter avec vos amis.

Certaines compagnies comme Threema qui ne fournissent pas leurs sources assurent évidemment qu’elles ne sont pas nécessaires pour avoir confiance. Elles affirment que leur code a été audité par une autre compagnie (qu’ils ont généralement payée pour cela), mais si vous ne faites pas confiance à la première, pourquoi faire confiance à une autre engagée par celle-ci ? Plus important, comment savoir que la version vérifiée par le tiers est bien la même version que celle installée sur votre téléphone ? (Vous recevez des mises à jours régulières ou non ?)

Cela vaut aussi pour les gouvernements et les entités publiques qui font ce genre d’audits. En fonction de votre modèle de menace ou de vos suppositions sur la société, vous pourriez être enclins à faire confiance aux institutions publiques plus qu’aux institutions privées (ou inversement), mais si vous regardez vers l’Allemagne par exemple, avec le TÜV il n’y a en fait qu’une seule organisation vérificatrice, que ce soit sur la valeur de confiance des applications de messagerie ou concernant la quantité de pollution émise par les voitures. Et nous savons bien à quoi cela a mené !

Capture du 2016-06-26 20-20-04
Jeu gratuit à imprimer du site turbulus.com

La confiance

Quand vous décidez si vous faites confiance à un tiers, vous devez donc prendre en compte :

  • la bienveillance : le tiers ne veut pas compromettre votre vie privée et/ou il est lui-même concerné
  • la compétence : le tiers est techniquement capable de protéger votre vie privée et d’identifier et de corriger les problèmes
  • l’intégrité : le tiers ne peut pas être acheté, corrompu ou infiltré par des services secrets ou d’autres tiers malveillants

Après les révélations de Snowden, il est évident que le public est le seul tiers qui peut remplir collectivement ces prérequis ; donc la mise à disposition publique du code source est cruciale. Cela écarte d’emblée WhatsApp, Google Allo et Threema.

« Attendez une minute… mais n’existe-t-il aucun autre moyen de vérifier que les données qui transitent sont bien chiffrées ? » Ah, bien sûr qu’il en existe, comme Threema le fera remarquer, ou d’autres personnes pour WhatsApp. Mais l’aspect important, c’est que le fournisseur de service contrôle l’application sur votre appareil, et peut intercepter les messages avant le chiffrement ou après le déchiffrement, ou simplement « voler » vos clés de chiffrement. « Je ne crois pas que X fasse une chose pareille. » Gardez bien à l’esprit que, même si vous faites confiance à Facebook ou Google (et vous ne devriez pas), pouvez-vous vraiment leur faire confiance pour ne pas obéir à des décisions de justice ? Si oui, alors pourquoi vouliez-vous du chiffrement de bout en bout ? « Quelqu’un s’en apercevrait, non ? » Difficile à dire ; s’ils le faisaient tout le temps, vous pourriez être capable de vous en apercevoir en analysant l’application. Mais peut-être qu’ils font simplement ceci :

si (listeDeSuspects.contient(utilisateurID))
 envoyerClefSecreteAuServeur() ;

Alors seules quelques personnes sont affectées, et le comportement ne se manifeste jamais dans des « conditions de laboratoire ». Ou bien la génération de votre clé est trafiquée, de sorte qu’elle soit moins aléatoire, ou qu’elle adopte une forme plus facile à pirater. Il existe plusieurs approches, et la plupart peuvent facilement être déployées dans une mise à jour ultérieure, ou cachée parmi d’autres fonctionnalités. Notez bien également qu’il est assez facile de se retrouver dans la liste de suspects, car le règlement actuel de la NSA assure de pouvoir y ajouter plus de 25 000 personnes pour chaque suspect « originel ».

À la lumière de ces informations, on comprend qu’il est très regrettable que Open Whisper Systems et Moxie Marlinspike (le célèbre auteur de Signal, mentionné précédemment) fassent publiquement les louanges de Facebook et de Google, augmentant ainsi la confiance en leurs applications [bien qu’il ne soit pas mauvais en soi qu’ils aient aidé à mettre en place le chiffrement, bien sûr]. Je suis assez confiant pour dire qu’ils ne peuvent pas exclure un des scénarios précédents, car ils n’ont pas vu le code source complet des applications, et ne savent pas non plus ce que vont contenir les mises à jour à l’avenir – et nous ne voudrions de toutes façons pas dépendre d’eux pour nous en assurer !

La messagerie Signal

« OK, j’ai compris. Je vais utiliser des logiciels libres et open source. Comme le Signal d’origine ». C’est là que ça se complique. Bien que le code source du logiciel client Signal soit libre/ouvert, il dépend d’autres composants non libres/fermés/propriétaires pour fonctionner. Ces composants ne sont pas essentiels au fonctionnement, mais ils (a) fournissent des métadonnées à Google (plus de détails sur les métadonnées plus loin) et (b) compromettent l’intégrité de votre appareil.

Le dernier point signifie que si même une petite partie de votre application n’est pas digne de confiance, alors le reste ne l’est pas non plus. C’est encore plus critique pour les composants qui ont des privilèges système, puisqu’ils peuvent faire tout et n’importe quoi sur votre téléphone. Et il est particulièrement impossible de faire confiance à ces composants non libres qui communiquent régulièrement des données à d’autres ordinateurs, comme ces services Google. Certes, il est vrai que ces composants sont déjà inclus dans la plupart des téléphones Android dans le monde, et il est aussi vrai qu’il y a très peu d’appareils qui fonctionnent vraiment sans aucun composant non libre, donc de mon point de vue, ce n’est pas problématique en soi de les utiliser quand ils sont disponibles. Mais rendre leur utilisation obligatoire implique d’exclure les personnes qui ont besoin d’un niveau de sécurité supérieur (même s’ils sont disponibles !) ; ou qui utilisent des versions alternatives plus sécurisées d’Android, comme CopperheadOS ; ou simplement qui ont un téléphone sans ces services Google (très courant dans les pays en voie de développement). Au final, Signal créé un « effet réseau » qui dissuade d’améliorer la confiance globale d’un appareil mobile, parce qu’il punit les utilisateurs qui le font. Cela discrédite beaucoup de promesses faites par ses auteurs.

Et voici le pire : Open Whisper Systems, non seulement, ne supporte pas les systèmes complètements libres, mais a également menacé de prendre des mesures légales afin d’empêcher les développeurs indépendants de proposer une version modifiée de l’application client Signal qui fonctionnerait sans les composants propriétaires de Google et pourrait toujours interagir avec les autres utilisateurs de Signal ([1] [2] [3]). À cause de cela, des projets indépendants comme LibreSignal sont actuellement bloqués. En contradiction avec leur licence libre, ils s’opposent à tout client du réseau qu’ils ne distribuent pas. De ce point de vue, l’application Signal est moins utilisable et moins fiable que par exemple Telegram qui encourage les clients indépendants à utiliser leurs serveurs et qui propose des versions entièrement libres.

Juste pour que je ne donne pas de mauvaise impression : je ne crois pas qu’il y ait une sorte de conspiration entre Google et Moxie Marlinspike, et je les remercie de mettre au clair leur position de manière amicale (au moins dans leur dernière déclaration), mais je pense que la protection agressive de leur marque et leur insistance à contrôler tous les logiciels clients de leur réseau met à mal la lutte globale pour des communications fiables.

Décentralisation, contrôle par les distributeurs et métadonnées

Un aspect important d’un réseau de communication est sa topologie, c’est-à-dire la façon dont le réseau est structuré. Comme le montre l’image ci-dessous, il y a plusieurs approches, toutes (plus ou moins) largement répandues. La section précédente concernait ce qui se passe sur votre téléphone, alors que celle-ci traite de ce qui se passe sur les serveurs, et du rôle qu’ils jouent. Il est important de noter que, même dans des réseaux centralisés, certaines communications ont lieu en pair-à-pair (c’est-à-dire sans passer par le centre) ; mais ce qui fait la différence, c’est qu’il nécessitent des serveurs centraux pour fonctionner.

Réseaux centralisés

Les réseaux centralisés sont les plus courants : toutes les applications mentionnées plus haut (WhatsApp, Telegram, Signal, Threema, Allo) reposent sur des réseaux centralisés. Bien que beaucoup de services Internet ont été décentralisés dans le passé, comme l’e-mail ou le World Wide Web, beaucoup de services centralisés ont vu le jour ces dernières années. On peut dire, par exemple, que Facebook est un service centralisé construit sur la structure WWW, à l’origine décentralisée.

Les réseaux centralisés font souvent partie d’une marque ou d’un produit plus global, présenté comme une seule solution (au problème des SMS, dans notre cas). Pour les entreprises qui vendent ou qui offrent ces solutions, cela présente l’avantage d’avoir un contrôle total sur le système, et de pouvoir le changer assez rapidement, pour offrir (ou imposer) de nouvelles fonctionnalités à tous les utilisateurs.

Même si l’on suppose que le service fournit un chiffrement de bout en bout, et même s’il existe une application cliente en logiciel libre, il reste toujours les problèmes suivants :

métadonnées : le contenu de vos messages est chiffré, mais l’information qui/quand/où est toujours accessible pour votre fournisseur de service
déni de service : le fournisseur de service ou votre gouvernement peuvent bloquer votre accès au service

Il y a également ce problème plus général : un service centralisé, géré par un fournisseur privé, peut décider quelles fonctionnalités ajouter, indépendamment du fait que ses utilisateurs les considèrent vraiment comme des fonctionnalités ou des « anti-fonctionnalités », par exemple en indiquant aux autres utilisateurs si vous êtes « en ligne » ou non. Certaines de ces fonctionnalités peuvent être supprimées de l’application sur votre téléphone si c’est du logiciel libre, mais d’autres sont liées à la structure centralisée. J’écrirai peut-être un jour un autre article sur ce sujet.

Métadonnées

Comme expliqué précédemment, les métadonnées sont toutes les données qui ne sont pas le message. On pourrait croire que ce ne sont pas des données importantes, mais de récentes études montrent l’inverse. Voici des exemples de ce qu’incluent les métadonnées : quand vous êtes en ligne, si votre téléphone a un accès internet, la date et l’heure d’envoi des messages et avec qui vous communiquez, une estimation grossière de la taille du message, votre adresse IP qui peut révéler assez précisément où vous vous trouvez (au travail, à la maison, hors de la ville, et cætera), éventuellement aussi des informations liées à la sécurité de votre appareil (le système d’exploitation, le modèle…). Ces informations sont une grande menace contre votre vie privée et les services secrets américains les utilisent réellement pour justifier des meurtres ciblés (voir ci-dessus).

La quantité de métadonnées qu’un service centralisé peut voir dépend de leur implémentation précise. Par exemple, les discussions de groupe avec Signal et probablement Threema sont implémentées dans le client, donc en théorie le serveur n’est pas au courant. Cependant, le serveur a l’horodatage de vos communications et peut probablement les corréler. De nouveau, il est important de noter que si le fournisseur de service n’enregistre pas ces informations par défaut (certaines informations doivent être préservées, d’autres peuvent être supprimées immédiatement), il peut être forcé à enregistrer plus de données par des agences de renseignement. Signal (comme nous l’avons vu) ne fonctionne qu’avec des composants non-libres de Google ou Apple qui ont alors toujours une part de vos métadonnées, en particulier votre adresse IP (et donc votre position géographique) et la date à laquelle vous avez reçu des messages.

Pour plus d’informations sur les métadonnées, regardez ici ou .

Déni de service

Un autre inconvénient majeur des services centralisés est qu’ils peuvent décider de ne pas vous servir du tout s’ils le veulent ou qu’ils y sont contraints par la loi. Comme nombre de services demandent votre numéro lors de l’enregistrement et sont opérés depuis les États-Unis, ils peuvent vous refuser le service si vous êtes cubain par exemple. C’est particulièrement important puisqu’on parle de chiffrement qui est grandement régulé aux États-Unis.

L’Allemagne vient d’introduire une nouvelle loi antiterroriste dont une partie oblige à décliner son identité lors de l’achat d’une carte SIM, même prépayée. Bien que l’hypothèse soit peu probable, cela permettrait d’établir une liste noire de personnes et de faire pression sur les entreprises pour les exclure du service.

Plutôt que de travailler en coopération avec les entreprises, un gouvernement mal intentionné peut bien sûr aussi cibler le service directement. Les services opérés depuis quelques serveurs centraux sont bien plus vulnérables à des blocages nationaux. C’est ce qui s’est passé pour Signal et Telegram en Chine.

Réseaux déconnectés

Lorsque le code source du serveur est libre, vous pouvez monter votre propre service si vous n’avez pas confiance dans le fournisseur. Ça ressemble à un gros avantage, et Moxie Marlinspike le défend ainsi :

Avant vous pouviez changer d’hébergeur, ou même décider d’utiliser votre propre serveur, maintenant les utilisateurs changent simplement de réseau complet. […] Si un fournisseur centralisé avec une infrastructure ouverte modifiait affreusement ses conditions, ceux qui ne seraient pas d’accord ont le logiciel qu’il faut pour utiliser leur propre alternative à la place.

Et bien sûr, c’est toujours mieux que de ne pas avoir le choix, mais la valeur intrinsèque d’un réseau « social » vient des gens qui l’utilisent et ce n’est pas évident de changer si vous perdez le lien avec vos amis. C’est pour cela que les alternatives à Facebook ont tant de mal. Mme si elles étaient meilleures sur tous les aspects, elles n’ont pas vos amis.

Certes, c’est plus simple pour les applications mobiles qui identifient les gens via leur numéro, parce qu’au moins vous pouvez trouver vos amis rapidement sur un nouveau réseau, mais pour toutes les personnes non techniciennes, c’est très perturbant d’avoir 5 applications différentes juste pour rester en contact avec la plupart de ses amis, donc changer de réseau ne devrait qu’être un dernier recours.

Notez qu’OpenWhisperSystems se réclame de cette catégorie, mais en fait ils ne publient que des parties du code du serveur de Signal, de sorte que vous ne soyez pas capables de monter un serveur avec les mêmes fonctionnalités (plus précisément la partie téléphonie manque).

networks_black
Centralisation, réseaux déconnectés, fédération, décentralisation en pair à pair

La fédération

La fédération est un concept qui résout le problème mentionné plus haut en permettant en plus aux fournisseurs de service de communiquer entre eux. Donc vous pouvez changer de fournisseur, et peut-être même d’application, tout en continuant à communiquer avec les personnes enregistrées sur votre ancien serveur. L’e-mail est un exemple typique d’un système fédéré : peu importe que vous soyez tom@gmail.com ou jeanne@yahoo.com ou même linda@serveur-dans-ma-cave.com, tout le monde peut parler avec tout le monde. Imaginez combien cela serait ridicule, si vous ne pouviez communiquer qu’avec les personnes qui utilisent le même fournisseur que vous ?

L’inconvénient, pour un développeur et/ou une entreprise, c’est de devoir définir publiquement les protocoles de communication, et comme le processus de standardisation peut être compliqué et très long, vous avez moins de flexibilité pour modifier le système. Je reconnais qu’il devient plus difficile de rendre les bonnes fonctionnalités rapidement disponibles pour la plupart des gens, mais comme je l’ai dit plus haut, je pense que, d’un point de vue de la vie privée et de la sécurité, c’est vraiment une fonctionnalité, car plus de gens sont impliqués et plus cela diminue la possibilité pour le fournisseur d’imposer des fonctionnalités non souhaitées aux utilisateurs ; mais surtout car cela fait disparaître « l’effet d’enfermement ». Cerise sur le gâteau, ce type de réseau produit rapidement plusieurs implémentations du logiciel, à la fois pour l’application utilisateur et pour le logiciel serveur. Cela rend le système plus robuste face aux attaques et garantit que les failles ou les bugs présents dans un logiciel n’affectent pas le système dans son ensemble.

Et, bien sûr, comme évoqué précédemment, les métadonnées sont réparties entre plusieurs fournisseurs (ce qui rend plus difficile de tracer tous les utilisateurs à la fois), et vous pouvez choisir lequel aura les vôtres, voire mettre en place votre propre serveur. De plus, il devient très difficile de bloquer tous les fournisseurs, et vous pouvez en changer si l’un d’entre eux vous rejette (voir « Déni de service » ci-dessus).

Une remarque au passage : il faut bien préciser que la fédération n’impose pas que des métadonnées soient vues par votre fournisseur d’accès et celui de votre pair. Dans le cas de la messagerie électronique, cela représente beaucoup, mais ce n’est pas une nécessité pour la fédération par elle-même, c’est-à-dire qu’une structure fédérée bien conçue peut éviter de partager les métadonnées dans les échanges entre fournisseurs d’accès, si l’on excepte le fait qu’il existe un compte utilisateur avec un certain identifiant sur le serveur.

XMPP_logo.svg_

Alors est-ce qu’il existe un système identique pour la messagerie instantanée et les SMS ? Oui, ça existe, et ça s’appelle XMPP. Alors qu’initialement ce protocole n’incluait pas de chiffrement fort, maintenant on y trouve un chiffrement du même niveau de sécurité que pour Signal. Il existe aussi de très bonnes applications pour mobile sous Android (« Conversations ») et sous iOS (« ChatSecure »), et pour d’autres plateformes dans le monde également.

Inconvénients ? Comme pour la messagerie électronique, il faut d’abord vous enregistrer pour créer un compte quelque part et il n’existe aucune association automatique avec les numéros de téléphone, vous devez donc convaincre vos amis d’utiliser ce chouette nouveau programme, mais aussi trouver quels fournisseur d’accès et nom d’utilisateur ils ont choisis. L’absence de lien avec le numéro de téléphone peut être considérée par certains comme une fonctionnalité intéressante, mais pour remplacer les SMS ça ne fait pas l’affaire.

La solution : Kontalk, un client de messagerie qui repose sur XMPP et qui automatise les contacts via votre carnet d’adresses. Malheureusement, cette application n’est pas encore aussi avancée que d’autres mentionnées plus haut. Par exemple, il lui manque la gestion des groupes de discussion et la compatibilité avec iOS. Mais Kontalk est une preuve tangible qu’il est possible d’avoir avec XMPP les mêmes fonctionnalités que l’on trouve avec WhatsApp ou Telegram. Selon moi, donc, ce n’est qu’une question de temps avant que ces solutions fédérées ne soient au même niveau et d’une ergonomie équivalente. Certains partagent ce point de vue, d’autres non.

Réseaux pair à pair

Les réseaux pair à pair éliminent complètement le serveur et par conséquent toute concentration centralisée de métadonnées. Ce type de réseaux est sans égal en termes de liberté et il est pratiquement impossible à bloquer par une autorité. ToX est un exemple d’application pair à pair, ou encore Ricochet (pas pour mobile cependant), et il existe aussi Briar qui est encore en cours de développement, mais ajoute l’anonymat, de sorte que même votre pair ne connaît pas votre adresse IP. Malheureusement il existe des problèmes de principe liés aux appareils mobiles qui rendent difficile de maintenir les nombreuses connexions que demandent ces réseaux. De plus il semble impossible pour le moment d’associer un numéro de téléphone à un utilisateur, si bien qu’il est impossible d’avoir recours à la détection automatique des contacts.

Je ne crois pas actuellement qu’il soit possible que ce genre d’applications prenne des parts de marché à WhatsApp, mais elles peuvent être utiles dans certains cas, en particulier si vous êtes la cible de la surveillance et/ou membre d’un groupe qui décide collectivement de passer à ces applications pour communiquer, une organisation politique par exemple.

 

En deux mots

  • La confidentialité de nos données privées est l’objet d’un intérêt accru et les utilisateurs cherchent activement à se protéger mieux.
  • On peut considérer que c’est un bon signe quand les distributeurs principaux de logiciels comprennent qu’ils doivent réagir à cette situation en ajoutant du chiffrement à leurs logiciels ; et qui sait, il est possible que ça complique un peu la tâche de la NSA.
  • Toutefois, il n’y a aucune raison de leur faire plus confiance qu’auparavant, puisqu’il n’existe aucun moyen à notre disposition pour savoir ce que font véritablement les applications, et parce qu’il leur reste beaucoup de façons de nous espionner.
  • Si en ce moment vous utilisez WhatsApp, Skype, Threema ou Allo et que vous souhaitez avoir une expérience comparable, vous pouvez envisager de passer à Telegram ou Signal. Ils valent mieux que les précédents (pour diverses raisons), mais ils sont loin d’être parfaits, comme je l’ai montré. Nous avons besoin à moyen et long terme d’une fédération.
  • Même s’ils nous paraissent des gens sympas et des hackers surdoués, nous ne pouvons faire confiance à OpenWhisperSystemspour nous délivrer de la surveillance, car ils sont aveugles à certains problèmes et pas très ouverts à la coopération avec la communauté.
  • Des trucs assez sympas se préparent du côté du XMPP, surveillez Conversations, chatSecure et Kontalk. Si vous le pouvez, soutenez-les avec du code, des dons et des messages amicaux.
  • Si vous souhaitez une approche sans aucune métadonnée et/ou anonymat, essayez Tor ou ToX, ou attendez Briar.

 




Framavox : discutez, décidez, et faites entendre votre voix !

Dans les associations, les collectifs, les groupes de travail… ou même lorsque l’on passe sa nuit debout, il est un point essentiel de la collaboration : comment prendre des décisions ensemble ?

Bien entendu, le numérique peut être un outil formidable en cela : même séparés géographiquement, on peut discuter, se positionner, changer d’avis au cours des échanges. Chose amusante, c’est le logiciel libre qui répond le mieux à ces problématiques (à tel point que nous avons eu du mal à trouver une alternative « made in GAFAM » à cette nouvelle offre pour notre carte Dégooglisons Internet ^^ !)

Tour de Framavox en deux listes à puces

Nous sommes donc fiers de mettre en avant les fonctionnalités du logiciel libre Loomio dans ce nouveau service : Framavox.

Voici un outil collaboratif de prise de décisions qui vous permet de :

  • Créer un groupe de discussion/décisions (ouvert, privé ou fermé)
  • Rejoindre un groupe ouvert ou demander à intégrer un groupe privé
  • Inviter des personnes à rejoindre votre groupe
  • Créer des discussions au sein de ce groupe
  • Échanger et se répondre dans ces discussions (comme un fil de réseau social)
  • Présenter au vote une proposition dans la discussion
  • Modifier votre vote au fil des échanges (jusqu’à la date de fin de la proposition)
  • Poursuivre les échanges et les votes à volonté (on doit attendre la clôture de la proposition précédente afin d’en proposer une nouvelle aux votes)
  • Aller jusqu’à créer des sous-groupes !

 

Le tout agrémenté de fonctionnalités très pratiques :

  • Les échanges sont conservés et indexés (barre de recherche)
  • Tous vos textes sont aisément mis en page avec la syntaxe Markdown
  • On peut répondre directement à un message (pour ne pas perdre le fil)
  • Ainsi que mentionner une personne pour qu’elle soit notifiée
  • Un système de notifications et de réponses par email est inclus
  • On profite d’une ergonomie agréable (de type réseau social)
  • Les groupes, sous-groupes, discussions et comptes utilisateurs sont paramétrables et personnalisables

Tout cela est à votre disposition sur Framavox.org !

Le tutoriel pour l’auto-hébergement est disponible dans le Framaclahoude.

Démonstration en vidéo (réalisée par Fréderic Véron, qui a gentiment répondu à notre sollicitation)

 

Framavox illustré en un exemple concret

Le Groupe d’Action pour le Gras a des décisions à prendre…

Sandrine (dont la vie associative est bien remplie…) est une membre du G.A.G., le « Groupe d’Action pour le Gras » dont la devise est « Le gras, c’est la vie. » Les membres de cette association ont du mal à se réunir physiquement pour prendre toutes les décisions nécessaires.

Elle décide donc de créer un groupe pour l’association sur Framavox… C’est simple : elle se crée un compte, puis elle s’y connecte pour créer le groupe.

01 framavox creer groupe

Sandrine décide de créer un groupe fermé, car elle voit dans la documentation de Loomio (traduite en français par l’infatigable groupe Framalang) qu’elle pourra modifier ce paramètre ultérieurement.

Dès la création, une première discussion de « bienvenue » est créée. L’œil de lynx de Sandrine y repère bien vite :

      1. La zone d’accès rapides aux discussions récentes / non lues et à ses groupes
      2. La zone de recherches, notifications, et de personnalisation du profil
      3. La colonne de gauche réservée aux échanges
      4. La colonne de droite pour les votes
      5. Et le bouton d’accès rapide aux principales actions

02 framavox bienvenue commente

Bon, pour continuer, il lui faut du monde avec qui échanger. Qu’à cela ne tienne, elle décide d’inviter John et Olivia à tester l’outil avec elle pour le compte de l’association.

03 framavox inviter des personnesEt, tant qu’à faire, autant créer la première discussion sur un sujet clivant, brûlant, un sujet qui divise le Groupe d’Action pour le Gras : la margarine.

04 framavox creer discussion

L’outil invite aux échanges, John et Olivia s’en donnent à cœur joie, comme on peut le lire dans la colonne des échanges de cette nouvelle discussion.

05 framavox discussionPrise d’un doute subit, Sandrine se demande si les objections de John sont liées au fait que la margarine est une graisse végétale (lui qui adore les graisses animales). Elle se demande surtout si d’autres membres du GAG ne font pas partie d’une « majorité silencieuse » qui souhaiterait que l’asso défende en priorité les graisses animales.

Elle décide donc de lancer un vote rapide, une « proposition », afin que l’on valide le positionnement de l’asso avant que de poursuivre les échanges.

06 framavox decision colonne droiteLe résultat est unanime : personne dans l’association ne veut se restreindre à la promotion exclusive des graisses animales.

Cette question (fondamentale, il faut bien le dire) étant réglée, les échanges se poursuivent… jusqu’au point où il est temps de décider : le G.A.G. se lance-t-il (ou non) dans cette campagne de promotion « Margarine, ma passion » ?

Sandrine décide de peaufiner la proposition afin que chacun-e comprenne l’interprétation des votes possibles. Elle utilise donc la syntaxe markdown pour mettre son texte en page.

08 framavox proposition 2 combine fleche

Bon… John a décider de poser son veto sur cette action, en votant « Bloquer »… mais le vote n’étant pas clos, Olivia veut mieux comprendre sa position, et se demande s’il a bien toutes les cartes en main. Elle décide de le notifier en écrivant « @johnbutter » afin qu’il reçoive ce message dans ses emails.

09 framavox notificationJohn, qui n’aime pas la margarine parce que c’est une « copie du beurre » (il préfère l’huile de coco, le bougre), n’avait pas pensé à ces arguments. Il répond donc directement à son email de notification depuis sa messagerie :

10 framavox réponse emailEt il se connecte à Framavox afin de changer son vote de « Bloquer » à « S’abstient ».

11 framavox vote modifiéSandrine est heureuse de voir en temps réel les échanges et les positions évoluer sur cette discussion, qui reste ouverte encore quelques jours, le temps que les autres membres du Groupe d’Action pour le Gras se connectent à leur tour.

12 framavox proposition 2 resultatComme le G.A.G. est une association très active, il y a toujours plusieurs sujets brûlant sur lesquels discuter, échanger et se positionner.

Par exemple, pendant tous ces échanges margariniers, il y a eu en parallèle une autre discussion créée par Olivia, pour inventer une action autour de ses recettes à l’huile d’olive.

13 framavox nouvelle discussion

La morale de cette histoire…

C’est qu’on espère voir les recettes d’Olivia paraître sous licence libre ! (vous pouvez rejoindre le groupe Framavox du GAG si vous voulez tester ^^)

C’est surtout que les équipes de Loomio ont conçu un outil qui peut faciliter grandement la vie de collectifs faisant le choix de prendre des décisions collaborativement.

C’est enfin que Framavox est un nouvel outil à votre disposition.

Le tuto pour l’installer sur vos serveurs est d’ores et déjà disponible sur framacloud.org.

Et oui, vous avez le droit de vous demander à quoi on carbure quand on cherche des exemples. C’est en vente libre, promis.

 

Pour aller plus loin :




Emmabuntüs n’est pas une distribution « de pauvres »

On les connaît bien, les copains d’Emmabuntüs, on les a déjà cuisinés plusieurs fois, mais on aime bien les titiller, parce qu’ils ont de l’humour.
On leur a demandé ce qu’il y avait de neuf du côté de chez eux.

Bon alors vous faites une action pour les pauvres, et vous leur donnez une version pauvre d’Ubuntu ? Vous trouvez qu’ils peuvent se contenter d’une version simplifiée ?

David : Nous ne faisons pas vraiment cela pour les « pauvres », mais pour ceux qui pensent que l’informatique doit être accessible à tous, sans condition de revenus.

Et surtout, nous pensons que donner une seconde chance à un ordinateur est un choix, celui de réduire la quantité de déchets, et que pour faciliter ce choix, le prix est un des critères, c’est pour cela que souvent les ordinateurs proposés le sont à un prix attractif.

Emmabuntüs est une version simplifiée de Ubuntu dans le sens « accessible » ce qui veut dire que des débutants peuvent s’en servir, mais vous pouvez aussi très bien développer un logiciel avec, ou mettre au point un serveur de SMS pour faire du recensement de population. Le système reste une Ubuntu (bientôt une Debian), et en conserve donc toutes les possibilités.

Emmabuntüs n’est donc pas une distribution « de pauvres », mais une distribution « pour tous » 🙂 utilisée à la fois par des personnes dans le besoin et des startups très rentables. C’est ce qui fait sa force : http://emmabuntus.sourceforge.net/mediawiki/index.php/L_age_de_faire_Mars_2014

Papy du 18 : « des débutants peuvent s’en servir », ça m’intéresse… mais concrètement, comment ça se passe si je veux essayer Emmabuntüs ? Il faut que j’aille chez Emmaüs à Bourges avec mon ordinateur et on me l’installe ? Ou bien il faut que je me débrouille tout seul même si je n’y connais rien, n’ayant pas touché à un ordinateur depuis Windows 95 ? (j’ai arrêté leurs trucs d’Internet à l’époque parce que les stridences du modem me donnaient des acouphènes)

David : Eh bien le plus simple est de trouver une « install party » près de chez toi (terme barbare désignant un regroupement de gentils geeks prêts à aider les gens à installer une distribution sur leur ordinateur). Tu y trouveras toute l’aide pour installer Emmabuntüs sur ton ordinateur et apprendre à l’utiliser. Tu peux aussi demander au « GULL » local (groupe d’utilisateur de Logiciels Libres), qui t’assistera, je crois qu’il y en a un à Bourges. Si tu connais des gens utilisant Linux, ils pourront aussi certainement t’aider car la procédure d’installation est très similaire à celle des autres distributions.

Patrick : Une autre solution consiste à acheter un ordinateur sous Emmabuntüs à petit prix dans les structures qui utilisent notre distribution : http://reemploi.emmabuntus.org. De plus cela participe à relocaliser l’économie, et à la réduction des déchets informatiques par leur réemploi.

Mamie de Paris : Emmabuntüs c’est le mot-valise entre Emmaüs et Ubuntu. La naissance de cette distribution est-elle une commande d’Emmaüs ? Êtes-vous considérés comme « compagnons » ?

David : Emmabuntüs est en fait le fruit du travail d’un bénévole à la communauté Emmaüs de Neuilly-plaisance, Patrick, qui à l’époque reconditionnait des ordinateurs. Afin de faciliter son travail et celui des compagnons travaillant avec lui, il a commencé à créer des scripts avec le logiciel « AutoIt » sous Windows et permettant d’automatiser certaines tâches. Petit à petit Linux et les logiciels libres se sont imposés comme le choix le plus évident par leur grande adaptabilité, la possibilité de les modifier et diffuser librement. Une Ubuntu a donc été modifiée pour donner naissance à Emmabuntüs.

Fred de Paris : En gros, c’est toujours compliqué avec le noyau dur d’Emmaüs ? Je me souviens que votre discours n’était pas super bien accueilli…

David : En fait petit à petit des gens au sein d’Emmaüs commencent à considérer notre travail, qui facilite quand même bien le leur, et donc nous nous faisons notre place au sein de la communauté.

Patrick : Nous avons de plus en plus de communautés Emmaüs qui utilisent notre distribution, et aussi des associations indépendantes du mouvement Emmaüs, et voici une liste des structures recensées qui utilisent Emmabuntüs : http://reemploi.emmabuntus.org.

Mamie de Paris : N’avez-vous pas l’impression de surcharger la distribution en y mettant plusieurs logiciels qui font exactement la même chose ? Plusieurs suites bureautiques, plusieurs lecteurs vidéos….

David : (sourire) La distribution est de plus en plus utilisée dans des structures reculées qui n’ont pas facilement accès à internet, et qui ont à intervenir dans des domaines très variés tels que des écoles, des centres sociaux, mais aussi des EPN et des centres de formation. Elle est même utilisée par certains indépendants et bien sûr par de nombreuses familles. Nous avons donc inclus le plus possibles d’outils en respectant la contrainte des 4Go (taille de la partition FAT pour démarrer sur la clé USB), afin que nos utilisateurs disposent d’une boite à outils qu’ils peuvent ensuite adapter à leur usage.

Libriste mordicus : Vous utilisez une distribution libre fournie avec des logiciels libres installables sans Internet. Pourquoi avez-vous fait le choix d’y ajouter des logiciels privateurs comme Skype ou Ghostery ?

David : Le but de Emmabuntüs est de fournir une distribution pour le reconditionnement et la réduction de la fracture numérique, des logiciels comme Skype sont très utilisés et permettront aux utilisateurs, souvent novices en informatique, de retrouver leurs outils familiers, ils pourront petit à petit basculer vers les logiciels libres en découvrant ceux fournis avec la distribution. En fait c’est un peu comme faire la promotion du libre sur Facebook : il faut aller chercher les utilisateurs là où ils sont [et pan, dans ta frama-face, à force de les chercher…], et souvent par méconnaissance du libre ce sont des réseaux et logiciels propriétaires qui sont utilisés.

Patrick : Concernant le logiciel privateur Ghostery, quand nous l’avons utilisé sur Emmabuntüs 2 nous ne savions pas que celui-ci n’était pas libre, et quand nous l’avons su nous l’avons remplacé par son équivalent libre nommé Disconnect en juin 2014.

Fred de Paris : Mais alors c’est pas 100% libre ?

David : Pas tout à fait, mais d’une part l’installation de la partie non libre est optionnelle, mais surtout nous faisons la promotion du libre par les documents et logiciels libres livrés avec la distribution en essayant de tendre vers le 100% libre.

Mamie de Paris : Quels sont vos rapports avec les communautés libristes ? Avec quels GULLs interagissez-vous ?

David : Nous avons évidemment beaucoup de contacts avec les libristes, à la fois membres des projets et blogueurs qui relaient nos articles, voire même souvent écrivent sur nos actions. Nous avons beaucoup échangé avec Ubuntu-fr par notre présence aux premiers samedis et aux Ubuntu Parties.

Patrick : Nous travaillons avec quelques GULL, comme Montpel’libre, les JerryClan France, Côte d’Ivoire, Togo, Cameroun, etc, et surtout de nombreuses associations qui veulent s’inscrire dans une démarche de réemploi des ordinateurs comme PC de l’Espoir, THOT Cis, TriRA, pas uniquement sur la partie distribution GNU/Linux, car notre but premier est l’action humanitaire par le réemploi, et la distribution que nous développons n’est qu’un vecteur pour atteindre ce but.

Libre_En_Fête_2016 à Lannion
Libre_En_Fête_2016 à Lannion

 

Mamie de Paris : Quels sont vos rapports avec les développeurs des logiciels que vous installez ? Respectez-vous les licences et les versions ?

David : Nous en respectons les licences, après, concernant les versions, nous essayons d’inclure les nouveautés quand elles ne posent pas de problème aux utilisateurs car il sera pour beaucoup d’entre eux difficile de s’adapter.
Nous avons des contacts avec les développeurs des logiciels quand ils nous aident ou que nous leurs transmettons les retours de nos utilisateurs, ou bien encore quand nous demandons à inclure certains travaux dans Emmabuntüs, il nous arrive aussi de communiquer avec eux lorsque nous écrivons dans notre blog pour être sûrs d’avoir les bonnes informations concernant leurs actions.

Mamie de Paris : Reversez-vous vos améliorations à la communauté Ubuntu-Fr (ou une autre) comme la licence l’y encourage ?

David : Heuuu, nous pêchons un peu sur ce sujet, en effet nous n’en avons pas le temps. Nous espérons cependant que la promotion faite d’Ubuntu à partir de Emmabuntüs et les contacts que nous avons avec la communauté Ubuntu-fr contribuent à rendre Ubuntu toujours meilleure. 🙂

Patrick : Nous ne participons pas à l’amélioration des communautés du logiciel libre, simplement car nous ne développons pas de code indépendant de notre distribution, qui puisse être intégré dans d’autres distributions. Notre travail pour Emmabuntüs se borne au choix des logiciels utilisés, leur personnalisation, et à des scripts qui permettent l’installation de la distribution et les choix par exemple installer ou pas les logiciels non libres lors de la post-installation.

Notre apport au monde du logiciel libre est de sensibiliser les utilisateurs néophytes à GNU/Linux sur la pertinence d’utiliser des logiciels libres pour prolonger la durée de vie de leur ordinateur, de former des reconditionneurs à la mise en œuvre de distribution GNU/linux pour le réemploi d’ordinateurs. Nous pensons que notre travail est de plus en plus utile et apprécié au regard des associations humanitaires qui utilisent notre distribution (éventuellement complétée des données de culture libre) dans le cadre de leurs beaux projets comme par exemple Ailleurs Solidaires et YovoTogo.

 Photo : Remise d’ordinateurs sous Emmabuntüs par Ailleurs Solidaires à Akashganga Intl Academy en décembre 2015
Photo : Remise d’ordinateurs sous Emmabuntüs par Ailleurs Solidaires à Akashganga Intl Academy en décembre 2015

 

Fred de Paris : Vous êtes potes avec des gens bizarres qui mettent des ordis dans des bidons. Pourquoi ils font ça ? Votre lien est-il toujours aussi fort ?

David : Hahahaha ouiiiiiiiiiii et plus que jamais, en fait quand nous avons rencontré les gens de Jerry DIT, ils ont rapidement adopté Emmabuntüs sur les Jerry, qui sont des ordis reconditionnés dans des bidons. Cette initiative s’est propagée bien au delà de l’Europe, surtout en Afrique où les « Jerry Clans » sont très vite apparus comme les ancêtres des labs que nous connaissons aujourd’hui. Jerry c’est le partage, l’opposition du faire ensemble si cher au logiciel libre à la culture du Do It Yourself malheureusement récupéré par les entreprises. Jerry, main dans la main avec Emmabuntüs, a donné naissance à des cyber Cafés (Jerry Cyber en Côte d’Ivoire), mais aussi à pas mal de salles d’informatique et d’ateliers au Bénin, Togo, Côte d’Ivoire, Gabon…

Le lien reste très fort oui, et nous espérons vraiment qu’il le restera. Même si les deux projets restent indépendants, nous nous soutenons mutuellement parce que nous sommes faits pour avancer ensemble. Un des membres de notre collectif est justement en train de créer Jerry Clan Cameroun avec sa fiancée, mais je ne balancerai pas. 😀

Jerry fonctionnant sous Emmabuntüs qui a permis à l'Ayiyikôh FabLab obtenir le prix de la meilleure application à l'Africa Web Festival 2015 avec l'application Gbame qui donne l'itinéraire des bus à Abidjan
Jerry fonctionnant sous Emmabuntüs qui a permis à l’Ayiyikôh FabLab d’obtenir le prix de la meilleure application à l’Africa Web Festival 2015 avec l’application Gbame qui donne l’itinéraire des bus à Abidjan

 

Fred de Paris : Et alors, elle a évolué comment, la distribution ? Vous dites qu’elle va être basée sur Debian ? Qu’est-ce qui vous a fait changer ?

David : Debian nous permettra une plus grande souplesse, et surtout une plus grande stabilité dans la base utilisée pour construire la distribution. Les versions testing sont maintenues très longtemps, sont stables et éprouvées. Nous garderons les dépôts Ubuntu pour les logiciels qui nécessitent une version récente. Debian est aussi de base plus légère et les versions 32 bits sont toujours maintenues. Cela nous permet de continuer à assurer aux reconditionneurs la continuité de Emmabuntüs en 32 bits pour les vieux ordis.

Patrick : Effectivement nous venons de sortir la version Beta de l’Emmabuntüs DE (Debian Edition) en février 2016, grâce à l’aide précieuse de membres d’autres communautés comme : Arpinux et Thuban de la distribution HandyLinux, Mamahadou et Moussa de l’Ayiyikôh Incubator, François de Multisystem, Nicolas de Montpel’libre et les blogueurs Frédéric Bezies et Rodolphe. Nous comptons sortir la version 1.00 pour fin mai début juin de cette année.

Fred de Paris : Vous mettriez pas Tonton Roger comme moteur de recherche par défaut ? Ça vous rapporterait pas un rond, je vous préviens. Ce serait pour l’élégance du geste…

David : Tu parles de Framabee ? [nan, je parle de Tonton Roger, on lui a donné un nom rigolo, faut que ça serve] Je pense que nous le pouvons oui, il est vraiment très agréable à utiliser.

Patrick : Nous sommes toujours partant pour intégrer des applications innovantes et libres des amis du monde Libre, par contre nous avons une nouvelle contrainte liée à notre diffusion internationale (la France ne représentant plus que 25 % de nos téléchargements) qui nous oblige pour les moteurs de recherche d’être en plusieurs langues. Après avoir abandonné G…. au profit de StartPage nous l’avons remplacé par Qwant car des utilisateurs anglophones nous ont informé qu’ils n’arrivent pas à basculer facilement la langue par défaut du moteur. Par contre nous garderons toujours sur notre fond d’écran cette phrase en français que nous devons à nos amis de Framasoft : « Un jour, le monde sera libre ! », et sans qui Emmabuntüs n’aurait jamais existé.

Merci beaucoup de nous avoir aidé dans cette belle aventure, et grâce à vous nous venons de fêter les 5 ans de notre collectif. Nous allons poursuivre celle-ci grâce au soutien de nos amis de Montpel’libre, YovoTogo, Ailleurs Solidaires, PC de l’Espoir, THOT Cis, TriRA, les JerryClan France, Côte d’Ivoire, Togo,  Ayiyikôh FabLab, BloLab, Je suis Jerry et bien sûr le DouaLab  😉

Salle informatique du village de Nayéga
Photo : Salle informatique du village de Nayéga, région des Savanes au nord Togo équipée par YOVOTOGO et JUMP Lab’Orione

 




Au revoir Revolv, bonjour obsolescence imposée

Pendant longtemps, acheter un objet signifiait pouvoir en disposer pleinement. Mais l’ère Google est arrivée, et les temps ont bel et bien changé.

Désormais, il faut composer avec des objets toujours connectés à leurs fabricants et à leur nouveau credo : l’obsolescence imposée, ou comment vous vendre un produit tout en gardant les pleins droits dessus. Quand il est possible de ne pas se contenter de l’argent du beurre, certains semblent ne pas se priver.

Google s’introduit au domicile de ses clients et neutralise leurs appareils connectés.

par Cory Doctorow

Source : Google reaches into customers’ homes and bricks their gadgets
Traduction Framalang : Piup, touriste, teromene, MagicFab, lumi, morgane, Pouhiou, simon, Blanchot, line, Diab, Penguin, herodor, lamessen, scailyna, tripou et quelques valeureux anonymes

Dave Bleasdale – CC-BY
Dave BleasdaleCC-BY

Revolv est une centrale de contrôle pour maison connectée dont Google a fait l’acquisition il y a 17 mois. Hier, Google a annoncé qu’à partir du 15 mai (2016, NdT), tous les Revolvs, où qu’ils soient, seraient mis hors-service et deviendraient inutilisables. La section 1201 de la loi américaine sur les droits d’auteur numériques (Digital Millennium Copyright Act, DMCA) précise que toute personne essayant de créer un système d’exploitation alternatif pour le Revolv commettrait un délit et risquerait jusqu’à 5 ans de prison.

Revolv est apparemment mis hors service parce qu’il n’a pas sa place dans les projets que Google prévoit pour Nest, son autre acquisition en matière de technologie domestique. La foire aux questions (FAQ) de Google indique à ses clients que tout cela est normal, car la garantie de ces objets a expiré, et que de toute manière, tout était indiqué en petits caractères dans les conditions qu’ils ont lues, ou au moins vues, ou pour lesquelles ils ont au minimum vu un lien quelque part.

Ce n’est pas encore un tremblement de terre, mais une secousse annonciatrice. Qu’il s’agisse de votre voiture, de vos ampoules ou de votre stimulateur cardiaque, les objets que vous possédez reposent de plus en plus sur des logiciels en réseau. Supprimez ces logiciels et ils deviennent des déchets électroniques inutilisables. Une entreprise vendant uniquement du matériel n’existe pas : les marges de profits ridiculement faibles sur le matériel obligent chaque entreprise de ce secteur à s’orienter vers le domaine du service et des données, et presque sans exception, ces entreprises utilisent les DRM (gestion des droits numériques) pour obtenir le droit de poursuivre en justice les concurrents qui fournissent les mêmes services, ou qui donnent à leurs clients la possibilité d’accéder à leurs propres données sur le matériel d’une entreprise concurrente.

Nous venons d’entrer dans une ère où les lave-vaisselle peuvent refuser de laver la vaisselle d’un autre fournisseur, et où leurs fabricants peuvent poursuivre en justice quiconque essayerait de fabriquer de la « vaisselle compatible ». Vous vendre un grille-pain n’avait jamais donné le droit au fabricant de vous dicter le choix de votre pain, pas plus que fabriquer un lecteur CD n’accordait à un fabricant le droit de contrôler le type de disque que vous souhaitez lire.

Si la dernière loi sur les droits d’auteur numériques (DMCA) a réussi à perdurer, c’est parce que nous considérons simplement comme une arnaque à la petite semaine des pratiques nous obligeant, par exemple, à acheter à nouveau un film que l’on a en DVD pour pouvoir le regarder sur son téléphone. Dans les faits, les règles du DMCA créent un système qui permet aux entreprises d’être les réels propriétaires de ce que vous achetez ; vous pensez acheter un objet, mais en réalité vous n’achetez tout simplement que le droit d’utiliser cet objet : c’est-à-dire une licence régie par des conditions d’utilisation que vous n’avez jamais lues, et encore moins approuvées, mais qui octroient à ces entreprises le droit de pénétrer chez vous et d’y faire ce qu’elles veulent avec le matériel que vous avez payé.

En somme, c’est un aimable et retentissant « Allez vous faire foutre » envoyé à toutes les personnes qui leur ont fait confiance en achetant leur matériel. Cette annonce a été faite longtemps après le rachat de l’entreprise par Google, il s’agit donc bien des paroles de Google sous la direction de Tony Fadell. Il faut également relever que pour les utilisateurs de ces objets connectés, la seule façon d’être informé de leur mutinerie est de se rendre sur le site Internet de Revolv alors même que Google dispose de l’adresse mail de ses clients.

Écoutez, je suis un grand garçon. Ce n’est pas la fin du monde. Il se trouve que je peux résoudre le problème en achetant un appareil de remplacement, tel que la centrale de contrôle produite par SmartThing, une entreprise appartenant à Samsung. Cet appareil n’est pas très cher, quelques centaines de dollars. Mais je suis vraiment inquiet. Cette initiative de Google soulève une série d’interrogations inhérentes à tout le matériel vendu par cette même société.

Quel sera le prochain appareil que Google décidera de neutraliser ? S’ils arrêtent le support d’Android, vont-ils décider que dès le lendemain de l’expiration de la dernière garantie, votre téléphone va s’éteindre à jamais ? Votre appareil Nexus est-il à l’abri ? Quid de votre alarme incendie ou de votre détecteur de fumée Nest ? Quid de votre Dropcam ? Et votre appareil Chromecast ? Google/Nest ne risque-t-il pas un jour de mettre votre famille en danger ?

Dans tous ces appareils, les aspects logiciels et matériels sont inextricablement liés. En vertu de quoi l’expiration d’une garantie donnerait-elle le droit de désactiver le fonctionnement d’un appareil ?

Arlo Gilbert/Medium, The time that Tony Fadell sold me a container of hummus.




L’anonymat en ligne avec Tor, c’est Nos oignons !

Comme beaucoup d’internautes, vous êtes ces dernières années de plus en plus préoccupé par la confidentialité de vos données et de vos communications.

Vous avez renforcé et renouvelé vos mots de passe, installé des extensions qui filtrent ou bloquent les contenus indésirables, vous luttez contre le pistage des GAFAM au cours de votre navigation, vous êtes en voie de dégooglisation, mais vous n’avez peut-être pas osé aborder une étape plus délicate et technique comme celle qui consiste à chiffrer vos échanges et vos disques durs, pas osé non plus utiliser le réseau Tor. C’est bien compréhensible, vous reculez un peu devant ce qui vous semble plus complexe et vous ne savez pas exactement de quoi il retourne… On entend dire des choses tellement inquiétantes aussi !

Liste des utilisateurs potentiels du réseau Tor
Tout le monde peut trouver des avantages à utiliser Tor

Eh bien nous vous proposons aujourd’hui d’apprendre un peu mieux ce qu’est réellement ce réseau Tor, pour démystifier ce qui peut s’avérer d’un usage quotidien pour beaucoup d’entre nous.

Vous en doutez ? Pourtant emprunter les trajectoires zigzagantes de Tor est non seulement parfaitement légal mais aussi tout à fait utile et à la portée d’un vaste public.

Mais pour commencer, qu’est-ce que c’est au juste que Tor ? Comment ça marche, est-ce que c’est dangereux ? Comment peut-on l’essayer sans trop de difficultés ?

Pour répondre à ces questions, autant s’adresser directement à ceux sont sur le terrain et connaissent la question. Nous avons la chance d’avoir Nos oignons une jeune association francophone qui s’active pour multiplier les nœuds de sortie dont… STOOOOP ! Écoutons-les plutôt.

Merci à ned, syl, Chre, Cor, gagz, nicoo, Lunar, aeris et à tous ceux de l’association qui ont collectivement et gentiment répondu aux questions un peu… comment dire — enfin des questions de Goofy, quoi.

Tor c’est pour aller sur le Darknet, là où se trouvent les trafiquants de drogue et les terroristes, pourquoi vous voudriez que les internautes ordinaires y accèdent aussi ?

Utiliser Tor permet de retrouver un peu d’intimité quand on utilise Internet. Tout comme mettre une lettre dans une enveloppe, des rideaux à nos fenêtres ou son téléphone sur liste rouge, cela permet de retrouver le pouvoir de décider avec qui partager notre quotidien.
Des personnes qui veulent se livrer à des activités illégales vont bien entendu chercher à se cacher. Mais cela ne peut pas justifier d’espionner tout le monde. Tor est là pour nous aider à disposer de nos droits fondamentaux : libertés d’opinion, d’expression, d’association, de communication. Ces droits humains s’appliquent à tou·te·s, sans discrimination.

Ce qu’il faut comprendre, c’est que même si Tor était interdit, des activités illégales continueraient d’exister sur Internet sous d’autres formes et en utilisant d’autres outils. Il y a déjà sur Internet des activités illégales n’utilisant pas Tor.

Moi je veux bien essayer Tor, mais je ne veux pas d’ennuis avec la police, hein. Qu’est-ce que vous faites quand les services de police vous demandent de fournir des renseignements sur des utilisateurs considérés comme suspects ?
On leur dit la simple vérité : nous n’avons pas ces renseignements, d’une part parce que nous ne gardons pas trace de ce que les usagers font avec Tor, d’autre part parce que le réseau est conçu pour qu’il nous soit impossible de remonter à la source des communications.

C’est le moment de schématiser le fonctionnement de Tor.

Regardez d’abord comme la transmission des informations numériques est perméable à toutes sortes de gens ou institutions lorsqu’on n’utilise ni Tor ni https (le protocole sécurisé) :
tor-and-https-0
Maintenant, avec ces deux outils mis en place, observez que les diverses oreilles indiscrètes n’ont plus d’accès aux données que vous transmettez. Les trois relais Tor qui assurent ainsi votre anonymat sont d’ailleurs eux-mêmes « aveugles » à vos données. Chacun d’eux ne reçoit et transmet que des données chiffrées dont il ignore l’émetteur d’origine.
tor-and-https-3

Il paraît que la NSA a glissé ses propres nœuds Tor dans le réseau, alors il est compromis ou bien je peux avoir confiance ?
Même si c’est toujours intéressant intellectuellement d’y réfléchir, on a rarement affaire à une organisation aussi puissante que la NSA. La plupart du temps, on cherche à se protéger de publicitaires qui veulent nous bourrer le crâne, de patrons qui veulent nous empêcher de bosser tranquilles, de conjoints inquisiteurs, d’un filtre trop agressif dans une gare… Moins souvent, on veut protéger des communications confidentielles avec des médecins, des avocat·e·s, des journalistes… On est donc rarement une cible directe de la NSA. Et c’est tant mieux parce que si elle se débrouille pour pirater notre ordinateur, il sera facile de nous espionner, que nous utilisions Tor ou non.
Néanmoins, si la NSA faisait tourner des nœuds, ce ne serait pas nécessairement un problème. Le réseau Tor est conçu pour résister à la présence de nœuds sous surveillance tant qu’ils ne sont pas nombreux ou qu’ils sont surveillés par des adversaires différents. Des bénévoles font activement la chasse pour trouver des nœuds qui interfèrent avec les données échangées, ou des nœuds trop semblables qui apparaissent.

Il faut savoir qu’un adversaire comme la NSA, qui dispose de la capacité de surveiller directement les réseaux de communication, n’a nul besoin de faire tourner des relais Tor pour tenter de désanonymiser ses utilisateur·ice·s. En effet, plutôt que de s’embêter à faire tourner des relais, il suffit d’observer d’où vient et où va le trafic qui transite par les relais.
Tout serait donc perdu ? De ce qu’on en sait, bien au contraire : les documents internes que nous a transmis Edward Snowden nous ont permis de mieux comprendre l’étendue des possibilités de la NSA. La présentation interne intitulée « Tor Stinks » (Tor, ça pue), datée de 2012, explique qu’il est possible de retrouver le chemin d’une fraction des connexions traversant Tor, mais il est impossible de « désanonymiser » toutes les connexions tout le temps et il est très difficile de le faire avec une cible précise en tête.

À notre connaissance, Tor reste efficace contre la surveillance de masse, et rend bien plus compliquées les attaques ciblées.

Je me rends compte que tester Tor est à ma portée ! Un navigateur est disponible pour cela, c’est Torbrowser. Il me suffit d’aller sur le site https://www.torproject.org/projects/torbrowser.html.en et de choisir la bonne version :

Torstep0

une fois qu’elle est téléchargée et installée, je choisis mon type d’usage :

Torstep1

et me voilà prêt à naviguer en circulant de façon anonyme sur le Web.

torstep2

Bon, Tor c’est bien, mais quelles précautions faut-il que je prenne en plus selon vous, car Tor n’est pas une garantie contre tous les risques, hein ?
En effet ! Tor permet vraiment deux choses : empêcher le fournisseur d’accès Internet de surveiller les sites qu’on visite ; et empêcher que les sites apprennent où l’on se trouve malgré nous. Tor Browser contient des myriades de petites fonctionnalités pour empêcher que deux sites différents puissent apprendre qu’une même personne les visite tous les deux. Mais utiliser Tor Browser ne protégera pas forcément la connexion jusqu’au site visité, pour cela il faut veiller à ce que la connexion se fasse en HTTPS.

Tor n’est pas une poudre magique à « sécuriser » : la plupart des logiciels ont des défauts, Tor Browser est par exemple mis à jour toutes les six semaines afin de pouvoir colmater des brèches de sécurité le plus vite possible. Les connexions entre le réseau Tor et le site Internet auquel on accède peuvent être surveillées. Tor ou pas Tor, l’heure d’une connexion peut parfois permettre d’identifier une personne lorsqu’il y a peu de suspects.
Pour établir une analogie un peu bancale : mettre sa ceinture en voiture n’empêche pas les accidents, mais est-ce une bonne raison pour ne pas la mettre ?

Utiliser Tor ne protégera pas les échanges à partir d’un site : ça ne change rien à la sécurité des messages échangés via Twitter ou un webmail. Se « garantir contre tous les risques », c’est forcément un processus, pas un produit. Par exemple, des images contenant le numéro de série de l’appareil qui a servi à prendre les photos dans les métadonnées peuvent permettre d’identifier la source d’une journaliste, que les images aient été transférées en utilisant Tor ou pas.

Ah ben je découvre qu’il existe une liste impressionnante de projets connexes à Tor ? Pourquoi a-t-on besoin de tout cet écosystème ? Quels sont les principaux types de projets associés et quels sont ceux auxquels vous (Nos oignons) participez ?
Il y a effectivement plein de projets liés à Tor, en plus de Tor (le logiciel qui sert à faire tourner le réseau) : le navigateur Tor, HTTPS Everywhere, les logiciels de messagerie instantanée Tor Messenger et Ricochet, Pond (une alternative aux emails)…
C’est principalement pour pouvoir mieux protéger les usagers de Tor : par exemple, Tor Browser est une version de Mozilla Firefox équipée de contre-mesures pour éviter qu’on puisse vous pister de connexion en connexion.  Pond est un logiciel expérimental qui vise à fournir un service similaire aux emails, mais qui masque l’existence même d’une communication entre deux usagers donnés…
Il existe également Tails qui est un système d’exploitation live (i.e. qui peut fonctionner sur une clé USB sans installation sur un ordinateur) dont tous les logiciels intégrés passent par Tor. Utiliser un système spécialement conçu pour limiter les traces et les fuites comme Tails constitue une aide précieuse pour s’épargner des erreurs.
Notre équipe d’administration système contribue aussi à l’amélioration du projet Debian (la distribution GNU/Linux que nous utilisons principalement), entre autres sur la sécurité des services que nous utilisons, et une importante quantité de documentation, accessible à tou·te·s, couvre la configuration de nos services, leur sécurisation et les procédures que nous employons. Des membres de Nos oignons ont également créé graphnion pour afficher des graphes de relais.

Mais… c’est quoi les « services cachés » de Tor, encore un truc de fraudeurs pour échapper à la TVA sur les services ?
Pas vraiment… on parle de plus en plus de  services « .onion » ces temps-ci car de plus en plus de services sont accessibles publiquement ainsi.
Le fonctionnement habituel de Tor, c’est de permettre de se connecter à des sites Internet existants. Quand on utilise les services .onion, la connexion se fait vers un serveur qui utilise lui aussi Tor. Par exemple, cela permet pour une personne qui tient un blog politique d’être plus difficile à identifier par celles et ceux qui voudraient lui chercher des noises. Un autre intérêt est de s’assurer que les usagers du service « onion » n’y accèdent pas accidentellement sans Tor ; c’est en particulier utilisé par les systèmes de prise de contact avec les journalistes (comme « SecureDrop »), pour s’assurer que les sources ne s’exposent pas accidentellement. Depuis peu, on voit aussi de plus en plus de sites proposer un accès en .onion en plus de leur accès Internet habituel. Le plus utilisé est probablement Facebook. L’usage du .onion permet de garantir que la connexion se fait au bon serveur, et de bénéficier de la totalité de la bande passante du réseau Tor, sans être contraint par le nombre limité de nœuds de sortie.

Votre association gère aussi des « signalements d’abus ». De quoi s’agit-il ?
Parfois, des gens nous contactent pour nous informer d’un problème en provenance de nos serveurs : une tentative d’utiliser « toto123 » comme mot de passe sur un service Web, l’envoi de spam, ou encore des services qui trouvent que recevoir autant de connexions en provenance d’une même adresse Internet partagée par plusieurs personnes, c’est suspect. On leur explique alors que nous gérons des relais Tor et que nous ne sommes donc pas la source du problème. Cela dit, notre expérience est que seule une petite quantité de personnes utilisent Tor pour être pénibles : le nombre de signalements que nous recevons est bien faible en comparaison de la quantité de données que les relais de Nos oignons font transiter chaque mois.

En lisant votre documentation, on voit que vous cherchez à avoir davantage de « relais » ou des « nœuds de sortie », c’est la même chose ou non ?
Pas tout à fait : les relais (ou nœuds) sont les ordinateurs faisant partie du réseau Tor ; les nœuds de sortie sont ceux qui permettent de joindre des sites Internet existants. Pour ces sites, il est facile de penser que le nœud de sortie est à l’origine de la connexion. En cas d’usage malintentionné de Tor, c’est donc souvent l’opérateur du nœud de sortie qui est consulté. Ça représente plus de travail que de faire tourner un relais « simple ».

Est-ce que tous les opérateurs acceptent qu’on mette son ordinateur au service du réseau Tor ?
Pour les nœuds de sortie, beaucoup d’opérateurs ou d’hébergeurs ont des clauses qui leur permettent de couper l’accès sans préavis, à cause des plaintes qui pourraient leur arriver. Cela n’empêche pas d’utiliser Tor ou de faire tourner des points d’entrée prévus qui permettent de contourner les dispositifs de censure (appelés « bridges »).
D’autre part, faire tourner un nœud de sortie chez soi n’est pas très utile, à cause de la bande passante limitée et de la gestion des risques liés aux abus. Il est plus utile d’aider Nos oignons à financer de nouveaux nœuds de sortie. 🙂

Le projet Tor se bat contre tous ceux qui voudraient faire disparaître l’anonymat, partout dans le monde. Mais en France, quelle est la situation, avec les lois sécuritaires qui s’empilent ? Tor est-il menacé ? Faut-il dès maintenant envisager un repli vers autre chose ?
L’anonymat est essentiel pour l’exercice des libertés fondamentales, particulièrement la liberté d’opinion. Tor n’est pour l’instant pas directement menacé en France. On sait toutefois que certains policiers souhaiteraient empêcher son usage, et que plus généralement, l’élite politique comprend mal les enjeux autour du chiffrement, comme on peut le voir autour de l’affaire FBI contre Apple couverte par les médias aux mois de mars-avril 2016.

Adopter Tor

Quoi qu’il en soit, Tor est conçu pour être un outil de contournement de la censure. Tor fonctionne même dans des pays particulièrement répressifs comme la Chine ou l’Iran qui disposent pourtant d’une capacité de filtrage et d’une politique répressive bien supérieures à ce qui existe en France actuellement. Réprimer l’utilisation de Tor risque d’être aussi efficace que de réprimer le partage d’œuvres en pair-à-pair : c’est un logiciel libre, facile à installer et à diffuser. En revanche il est clair que contribuer au projet, sous forme de code ou de relais pourrait être rendu plus difficile ou dangereux.

Il est donc important que les dizaines d’organisations et la centaine de particuliers qui font tourner des relais en France s’allient aux millions de personnes (dont une centaine de milliers en France !) qui utilisent régulièrement Tor. Restons vigilant·e·s et défendons nos libertés.

Tor a été conçu en partant du principe qu’il existera toujours des endroits où il sera possible de faire tourner des relais, où il sera possible de travailler à améliorer les logiciels et en faire la promotion.

Plusieurs projets envisagent un modèle beaucoup plus distribué et encore plus difficile à arrêter, mais c’est tout de suite plus compliqué comme problème à résoudre : ça pose la question de la compatibilité avec l’existant, et pour l’instant, rien n’est prêt pour le grand public. Il aura fallu dix ans à Tor pour être accessible à tout le monde. C’est important de soutenir ces projets le temps qu’ils mûrissent. Si Tor est remplacé un jour par un système plus fiable, ce sera tant mieux !

Je vois que vous utilisez une ribambelle de logiciels libres (Debian, Postfix, Mailman, Schleuder, SpamAssassin, BIND, Apache, Ikiwiki, Git, Keyringer, et encore de nombreux autres…) : le projet Tor serait-il possible sans des logiciels libres ?
Au-delà du fait qu’on ne peut pas faire confiance à un logiciel dont il est impossible de vérifier le fonctionnement, Tor doit rester accessible à toutes et tous. Personne de devrait avoir à payer pour pouvoir échapper au sentiment d’être surveillé·e. Mais partant de là, les ressources du projet sont plutôt limités. L’intérêt des logiciels libres est aussi de permettre de construire des solutions sur-mesure en assemblant plusieurs logiciels qui existent déjà. Ou alors de pouvoir demander de l’aide à d’autres personnes qui partagent les objectifs du projet Tor tout en travaillant sur d’autres projets. C’est important de pouvoir faire confiance à une communauté. Le projet Tails, par exemple, explique bien cette question de la chaîne de confiance en œuvre dans le logiciel libre.

De quoi avez-vous le plus besoin ? De compétences techniques, d’argent, de matériel, d’hébergement… ?

logoNosOignons
Le saviez-vous ? TOR est l’acronyme de The Onion Router, le routeur oignon. Sur le logo de l’association on voit en pointillés le trajet des données, chaque oignon-relais assure l’anonymat.

Nos oignons a bien sûr besoin d’argent pour payer l’hébergement de ses relais actuels et en ouvrir de nouveaux. Les dons réguliers sont précieux car ils nous permettent de mieux voir venir. Pour ce qui est des activités bénévoles, il y a beaucoup plus à faire côté communication et administratif que technique. On essaye d’accueillir toutes les bonnes volontés au mieux !

Actuellement, nous sommes particulièrement à la recherche de nouveaux hébergeurs, prêts à accepter un nœud de sortie Tor avec une bande passante conséquente. C’est nécessaire pour contribuer à la diversité du réseau : répartir les relais Tor chez le plus possible d’hébergeurs participe à la sécurité du réseau.

Message reçu ! Que nos lecteurs les plus aguerris rejoignent Nos oignons !

 

Quelques liens pour aller plus loin :




À la rencontre des géographes libres

Le logiciel libre a un important rôle à jouer dans la manipulation de données géographiques, qui doivent impérativement rester un bien commun. À l’occasion d’un rassemblement des acteurs de ce milieu, nous avons demandé à en savoir plus.

Avertissement : c’est pointu
Avertissement : c’est pointu

 

Salut Étienne. Tu es le président de l’association OSGeo-fr qui selon son site « est la représentation Francophone de la fondation Open Source Geospatial dont la mission est d’aider et de promouvoir le développement collaboratif des données et des technologies géospatiales ouvertes. »

J’ai rien compris. C’est quoi, le géospatial ?

Alors le Géospatial, ça ressemble un peu à un pléonasme, Géo pour géographique et spatiale pour l’espace. Bon en ce qui nous concerne, le géospatial renvoie au Système d’information géographique (SIG ou encore GIS en anglais). Les SIG sont à considérer comme une architecture, un système, informatique pour stocker et traiter des données géographiques.

L’OSGeo-fr est une association française qui est née il y a 10 ans pour donner de la visibilité aux logiciels libres en géographie (géomatique). Le fr c’est parce que nous sommes le « chapitre » (comme les loges maçonniques :-)) français d’une fondation internationale : http://www.osgeo.org/.

Logo OSgeo fr
Logo OSgeo fr

Parmi nos actions, nous organisons le FOSS4G-fr tous les deux ans à Paris en partenariat avec l’ENSG, des rencontres utilisateurs Qgis tout les ans à Montpellier avec les étudiants du Master AgroTIC, des semaines de traduction des interfaces et de la documentation pour les logiciels incubés par l’OSGeo. Cette année nous avons également soutenu un CodeSprint de l’OSGeo à Paris en début d’année.

Notre objectif vise à rassembler et dynamiser la communauté des développeurs et des utilisateurs francophone. La première édition du FOSS4G-fr a eu lieu en 2014 sur 3 jours à l’ENSG de Marne-la-Vallée, et a rassemblé 250 personnes.

FOSSAG 2014
FOSSAG 2014

 

Nous relancerons la machine pour 2016.

C’est toujours pas super clair.

Nous, à l’OSGeo, ce qui nous occupe, nous intéresse et nous passionne, ce sont tous les outils qui permettent de construire des cartes. Les contributeurs d’OpenStreetMap le savent, avant d’aboutir à une carte comme la Top25 de l’IGN ou à la carte OSM, un travail de sélection et de mise en forme de l’information doit être fait. On peut identifier plusieurs phases dans le processus et pour chaque phase, il existe une constellation de logiciels libres pour aider l’Homme dans cette tâche.

La création de données : comme dans OSM, on part bien souvent de photos aériennes, et on peut numériser à la main les différentes formes qu’on observe. Eh bien il existe d’autres méthodes qui consistent à faire construire ces formes par l’ordinateur. On pourra par exemple parler de GRASS-GIS, orfeo-toolbox ou encore R avec certains packages. L’évolution des capteurs d’acquisition de données (photos multi-band, infrarouge, LIDAR, etc.) ouvre régulièrement de nouvelles applications et de nouvelles possibilités dans le traitement de la donnée spatiale.

Donc pour revenir à la question, les technologies géospatiales manipulent des données dont l’objet est l’espace, sa représentation et sa modélisation.

Pourquoi le fait de travailler avec des logiciels libres est-il si important ? Que se passerait-il si la discipline était noyautée par les GAFAM ? Par l’Oncle Sam ?

Quand on parle de logiciel libre personnellement je pense immédiatement à des questions de justice sociale et justice spatiale (ben oui :-p). La cartographie est initialement un outil mobilisé pour la conquête. Qu’on pense au militaire ou au navigateur, leurs objectifs étaient de prendre possession de l’espace. Quand j’ai commencé à travailler avec des outils géomatiques, le libre existait bien sûr, mais il n’avait pas le droit de cité dans ma formation. Et je me suis retrouvé en stage dans une structure qui n’avait pas les moyens de se doter de logiciels « métier ».

Le logiciel libre a été un moyen de s’émanciper de cette contrainte et de permettre à la structure en question de pouvoir continuer à utiliser mon travail. Aujourd’hui les choses ont beaucoup changé, en grande partie grâce à Qgis qui a complètement redistribué les cartes (haha). De plus en plus de formations proposent des cours sur Qgis en plus des outils plus « traditionnels », et le dynamisme de la communauté des utilisateurs et des développeurs y est pour beaucoup !

Le web n’est pas à la traîne, openLayer est une librairie JavaScript incontournable, postgreSQL et PostGIS pour le stockage en base de données se sont largement imposés, etc . Donc pour moi les logiciels libres de l’OSGeo répondent bien aux questions de justice sociale en permettant à tous d’avoir accès à des logiciels et des algorithmes de qualité, ce qui nous conduit à la justice spatiale… il n’y a plus de contraintes à ce que la terre soit cartographiée par les gens qui la vivent !

Pour ce qui en est de l’oncle Sam… eh bien GRASS-GIS par exemple à été développé au départ par l’armée américaine et donné à la communauté.  Pour les GAFAM, ils restent ambigus non ? Google pour ne citer que lui a largement contribué à diffuser la cartographie sur Internet. Mais bien sûr la licence d’utilisation n’est pas acceptable ! On ne pourra pas non plus identifier combien de développements ont été permis grâce au Google Summer Of Code… Bon je parle beaucoup de Google… Peut-être que les autres sont moins ambigus ! :-p

Les données sont donc libres aussi (opendata) ?

Bien sûr, on parle aussi d’OpenData en géomatique ! La première source à laquelle on pense est bien sûr Openstreetmap et sa communauté qui font un travail formidable, aussi bien en ce qui concerne la numérisation de données que l’alignement avec d’autres référentiels. En France, par exemple, je ne sais pas si vous avez suivi, mais le projet Bano est assez exemplaire. L’idée repose sur une convention entre  l’IGN, le Groupe La Poste, l’État et OpenStreetMap France pour proposer la BAN (Base Adresse Nationale), qui sera la base de données adresse de référence en France.

Mais pour les gens qui veulent traiter d’autres données on trouve beaucoup d’autres sources sur internet : STRM, ASTER

Vous avez l’air très dynamiques : deux réunions en France en mai, une autre à Bonn en août. Vous avez beaucoup de choses à vous dire ou c’est pour manger des petits fours entre copains ?

Du dynamisme ! Oui oui on fait ce qu’on peut. 🙂

La communauté Osgeo-fr est nationale il faut donc arriver à créer des événements conviviaux pour que l’investissement en temps soit agréable ! Pour les francophones il y a donc cette année trois rendez-vous. Le premier est déjà passé et s’est déroulé à Montpellier en partenariat avec le Master AgroTIC de SupAgro. Ce rassemblement était dédié à Qgis et plutôt orienté utilisateurs et retour d’expérience.

Le second aussi est passé, il s’adressait plutôt aux développeurs : il s’agissait d’un code Sprint organisé à Paris en début d’année. L’objectif est de rassembler pendant un certain temps des développeurs pour avancer de concert au développement de nouvelles fonctionnalités et à la correction de bugs.

Enfin l’événement à venir, j’en ai déjà touché deux mots en introduction, est une rencontre plus large orientée tout à la fois développeurs et utilisateurs avec deux sessions parallèles. Le programme est sorti et il est incroyablement intéressant avec 10 workshops et 41 conférences en 3 jours. De quoi mettre le pied à l’étrier si vous êtes intéressés par les technologies géospatiales !

Nous organisons également des événements en ligne comme une semaine de traduction. À ce moment là, les personnes motivées se retrouvent dans des salons IRC pour avancer là aussi de manière concertée sur la traduction des interfaces et de la documentation pour permettre au plus grand nombre d’utiliser les logiciels.

Quel est l’avenir de la discipline ?

La prospective est toujours un exercice difficile parce qu’on passe toujours à côté de quelque chose ! Aujourd’hui si je réfléchis un peu aux évolutions depuis notre dernière édition du FOSS4G-fr : les technologies webSIG semblent se stabiliser après la sortie d’OpenLayers 3, on gère bien les données grâce des SGBD toujours plus performants, les web-services WMS, WFS, WPS, s’ils sont toujours en ébullition, sont déjà utilisables par la communauté.

La gestion de données 3D en base de données avait fait l’objet de plusieurs ateliers et présentations l’année dernière. Il semble que cette année le logiciel libre en géomatique et le géospatial s’investissent largement dans le traitement de données issues de drones, ce qui bien sûr remettra sous les spotlights le stockage.

Dans un autre domaine, la gestion des métadonnées géographiques reste également une question brûlante surtout avec l’émergence des organismes de diffusion de données de géographie produites par les territoires.

Pour conclure, le spatial prend de plus en plus d’espace dans les préoccupations, ce qui conduira de plus en plus de gens à migrer vers des outils open source ou libres pour reprendre la main sur ces données. Pour preuve un certain nombre de présentations au FOSS4G-fr de cette année sont des retours d’expérience de migration, de financement, par des entreprises, des associations ou des services de l’État vers le logiciel libre en géographie.

Est-ce que le grand public peut vous aider ? Ça a l’air d’un nid d’universitaires super-pointus, votre bidule…

Des universitaires ? Pas tant que ça 🙂 ! Pour le grand public, il me semble que si la question ne se pose pas encore pour tout le monde, nous allons vers une généralisation de l’utilisation des données géographiques. Quand le besoin se fait sentir, les solutions émergent. Aujourd’hui s’il est vrai que certaines solutions nécessitent quelques compétences, d’autres comme Qgis, gvSIG ou OpenJump pour n’en citer que trois sont à la portée du plus grand nombre.

Par ailleurs si vous voulez essayer toutes les saveurs des outils Osgeo, vous pouvez télécharger le live DVD traduit par la communauté.

OSgeo live
OSgeo live

C’est sans doute un bon moyen d’explorer les solutions simples comme les architectures plus compliquées sans complexe ni découragement. Si cela pique votre curiosité n’hésitez pas à venir rencontrer d’autres utilisateurs et développeurs au FOSS4G-fr, aux rencontres Qgis, ou au GeoCamp organisés dans différentes villes de France. Des moments de partage et de convivialité après lesquels tous les participants ressortent plus riches.

Pour en voir plus, une vidéo sur l’impressionnant plugin Cadastre

 

http://www.osgeo.asso.fr/