Désinformation, le rapport – 3

La traduction suivante est la suite et la continuation du travail entamé la semaine dernière sur le long rapport final élaboré par le comité « Digital, Culture, Media and Sport » du Parlement britannique, publié le 14 février dernier, sur la désinformation et la mésinformation.

Maintenant que le décor est posé, on aborde les questions réglementaires. Après avoir clairement défini ce qu’est une fake news, que nous avons traduit par « infox » et que les auteurs regroupent sous le terme plus précis de « désinformation », il est question de définir une nouvelle catégorie de fournisseurs de service pour caractériser leur responsabilité dans les préjudices faits à la société ainsi que des solutions pour protéger le public et financer l’action des structures de contrôle.

Le groupe Framalang a en effet entrepris de vous communiquer l’intégralité du rapport en feuilleton suivant l’avancement de la traduction.

Vous trouverez le texte intégral en suivant ce lien vers le PDF original (3,8 Mo).

La traduction est effectuée par le groupe Framalang, avec l’aide de toutes celles et ceux qui veulent bien participer et pour cet opus :

Traducteurs : Khrys, Lumibd, Maestox, simon, Fabrice, serici, Barbara, Angie, Fabrice, simon

La réglementation, le rôle, la définition et la responsabilité juridique des entreprises de technologie

Définitions

11. Dans notre rapport intermédiaire, nous avons désavoué le terme d’« infox » puisqu’il a « pris de nombreux sens, notamment une description de toute affirmation qui n’est pas appréciée ou en accord avec l’opinion du lecteur » et nous avons recommandé à la place les termes de « mésinformation » ou de « désinformation ». Avec ces termes viennent « des directives claires à suivre pour les compagnies, organisations et le Gouvernement  » liées à «  une cohérence partagée de la définition sur les plateformes, qui peuvent être utilisées comme la base de la régulation et de l’application de la loi »1.

12. Nous avons eu le plaisir de voir que le Gouvernement a accepté notre point de vue sur le fait que le terme « infox » soit trompeur, et ait essayé à la place d’employer les termes de « désinformation » et de « mésinformation ». Dans sa réponse, le gouvernement a affirmé :

Dans notre travail, nous avons défini le mot « désinformation » comme la création et le partage délibérés d’informations fausses et/ou manipulées dans le but de tromper et d’induire en erreur le public, peu importe que ce soit pour porter préjudice, ou pour des raisons politiques, personnelles ou financières. La « mésinformation » se réfère au partage par inadvertance de fausses informations2.

13. Nous avons aussi recommandé une nouvelle catégorie d’entreprises de réseaux sociaux, qui resserrent les responsabilités des entreprises de technologie et qui ne sont pas forcément « une plateforme » ou un « éditeur ». le gouvernement n’a pas du tout répondu à cette recommandation, mais Sharon White, Pdg de Of.com a qualifié cette catégorie de « très soignée » car les « plateformes ont vraiment des responsabilités, même si elles ne génèrent pas les contenus, concernant ce qu’elles hébergent et promeuvent sur leur site ».3.

14. Les entreprises de réseaux sociaux ne peuvent se cacher derrière le fait qu’elles seraient simplement une plateforme, et maintenir qu’elles n’ont elles-mêmes aucune responsabilité sur la régulation du contenu de leurs sites. Nous répétons la recommandation de notre rapport provisoire, qui stipule qu’une nouvelle catégorie d’entreprises technologiques doit être définie qui renforcera les responsabilités des entreprises technologiques et qui ne sont pas forcément « une plateforme » ou un « éditeur ». Cette approche voudrait que les entreprises de technologie prennent leur responsabilité en cas de contenu identifié comme étant abusif après qu’il a été posté par des utilisateurs. Nous demandons au gouvernement de prendre en compte cette nouvelle catégorie de compagnies technologiques dans son livre blanc qui va paraître prochainement.

Préjudices et réglementation en ligne

15. Plus tôt dans le cadre de notre enquête, nous avons écouté le témoignage de Sandy Parakilas et Tristan Harris, qui étaient tous deux à l’époque impliqués dans le Center for Human Technology, situé aux États-Unis. Le centre a compilé un « Recueil de Préjudices » qui résume les « impacts négatifs de la technologie qui n’apparaissent pas dans les bilans des entreprises, mais dans le bilan de la société ».4 Le Recueil de Préjudices contient les impacts négatifs de la technologie, notamment la perte d’attention, les problèmes de santé mentale, les confusions sur les relations personnelles, les risques qui pèsent sur nos démocraties et les problèmes qui touchent les enfants.5.

16. La prolifération des préjudices en ligne est rendu plus dangereuse si on axe des messages spécifiques sur des individus suite à des « messages micro-ciblés », qui jouent souvent sur les opinions négatives qu’ont les gens d’eux-mêmes et des autres et en les déformant. Cette déformation est rendue encore plus extrême par l’utilisation de « deepfakes » 6 audio et vidéos qui sonnent et ressemblent à une personne existante tenant des propos qui ne lui appartiennent pas.7 Comme nous l’avons dit dans notre rapport intermédiaire, la détection de ces exemples ne deviendra que plus complexe et plus difficile à démasquer au fur et à mesure de la sophistication des logiciels 8.

17. Le ministre de la santé, le député Hon Matthew Hancock, a récemment mis en garde les sociétés informatiques, notamment Facebook, Google et Twitter, qu’elles étaient en charge de la suppression des contenus inappropriés, blessants suite à la mort de Molly Russel, qui à 14 ans s’est suicidée en novembre 2017. Son compte Instagram contenait du contenu en lien avec la dépression, l’auto-mutilation et le suicide. Facebook, propriétaire d’Instagram, s’est déclaré profondément désolé de l’affaire.9 Le directeur d’Instagram, Adam Mosseri, a rencontré le secrétaire de la Santé début février 2019 et déclaré qu’Instagram n’était pas « dans une situation où il était nécessaire de traiter le problème de l’auto-mutilation et du suicide » et que cela revenait à arbitrer entre « agir maintenant et agir de manière responsable » 10

18. Nous relevons également que dans son discours du 5 février 2019, la députée Margot James, ministre du numérique dans le département du numérique, de la culture, des médias et du sport a exprimé ses craintes :

La réponse des principales plateformes est depuis trop longtemps inefficace. Il y a eu moins de 15 chartes de bonne conduite mises en place volontairement depuis 2008. Il faut maintenant remettre absolument en cause un système qui n’a jamais été suffisamment encadré par la loi. Le livre blanc, que le DCMS produit en collaboration avec le ministère de l’intérieur sera suivi d’une consultation durant l’été et débouchera sur des mesures législatives permettant de s’assurer que les plateformes supprimeront les contenus illégaux et privilégieront la protection des utilisateurs, particulièrement des enfants, adolescents et adultes vulnérables. 11

Le nouveau Centre pour des algorithmes et des données éthiques

19. Comme nous l’avons écrit dans notre rapport intermédiaire, les sociétés fournissant des réseaux sociaux tout comme celles fournissant des moteurs de recherche utilisent des algorithmes ou des séquences d’instructions pour personnaliser les informations et autres contenus aux utilisateurs. Ces algorithmes sélectionnent le contenu sur la base de facteurs tels que l’activité numérique passée de l’utilisateur, ses connexions sociales et leur localisation. Le modèle de revenus des compagnies d’Internet repose sur les revenus provenant de la vente d’espaces publicitaires et parce qu’il faut faire du profit, toute forme de contenu augmentant celui-ci sera priorisé. C’est pourquoi les histoires négatives seront toujours mises en avant par les algorithmes parce qu’elles sont plus fréquemment partagées que les histoires positives.12

20. Tout autant que les informations sur les compagnies de l’internet, les informations sur leurs algorithmes doivent être plus transparentes. Ils comportent intrinsèquement des travers, inhérents à la façon dont ils ont été développés par les ingénieurs ; ces travers sont ensuite reproduits diffusés et renforcés. Monica Bickert, de Facebook, a admis « que sa compagnie était attentive à toute forme de déviance, sur le genre, la race ou autre qui pourrait affecter les produits de l’entreprise et que cela inclut les algorithmes ». Facebook devrait mettre plus d’ardeur à lutter contre ces défauts dans les algorithmes de ses ingénieurs pour éviter leur propagation.
13

21. Dans le budget de 2017, le Centre des données Ethiques et de l’innovation a été créé par le gouvernement pour conseiller sur « l’usage éthique, respectueux et innovant des données, incluant l’IA ». Le secrétaire d’état a décrit son rôle ainsi:

Le Centre est un composant central de la charte numérique du gouvernement, qui définit des normes et des règles communes pour le monde numérique. Le centre permettra au Royaume-Uni de mener le débat concernant l’usage correct des données et de l’intelligence artificielle.14

22. Le centre agira comme un organisme de recommandation pour le gouvernement et parmi ses fonctions essentielles figurent : l’analyse et l’anticipation des manques en termes de régulation et de gestion; définition et orchestration des bonnes pratiques, codes de conduites et standards d’utilisations de l’Intelligence Artificielle; recommandation au gouvernement sur les règles et actions réglementaires à mettre en place en relation avec l’usage responsable et innovant des données. 15

23. La réponse du gouvernement à notre rapport intermédiaire a mis en lumière certaines réponses à la consultation telle que la priorité de l’action immédiate du centre, telle que « le monopole sur la donnée, l’utilisation d’algorithme prédictifs dans la police, l’utilisation de l’analyse des données dans les campagnes politiques ainsi que l’éventualité de discrimination automatisée dans les décisions de recrutement ». Nous nous félicitons de la création du Centre et nous nous réjouissons à la perspective d’en recueillir les fruits de ses prochaines travaux.

La loi en Allemagne et en France

24. D’autres pays ont légiféré contre le contenu malveillant sur les plateformes numériques. Comme nous l’avons relevé dans notre rapport intermédiaire, les compagnies d’internet en Allemagne ont été contraintes initialement de supprimer les propos haineux en moins de 24 heures. Quand cette auto-régulation s’est montrée inefficace, le gouvernement allemand a voté le Network Enforcement Act, aussi connu sous le nom de NetzDG, qui a été adopté en janvier 2018. Cette loi force les compagnies technologiques à retirer les propos haineux de leurs sites en moins de 24 heures et les condamne à une amende de 20 millions d’euros si ces contenus ne sont pas retirés16. Par conséquent, un modérateur sur six de Facebook travaille désormais en Allemagne, ce qui prouve bien que la loi peut être efficace.17.

25. Une nouvelle loi en France, adoptée en novembre 2018 permet aux juges d’ordonner le retrait immédiat d’articles en ligne s’ils estiment qu’ils diffusent de la désinformation pendant les campagnes d’élection. La loi stipule que les utilisateurs doivent recevoir « d’informations qui sont justes, claires et transparentes » sur l’utilisation de leurs données personnelles, que les sites doivent divulguer les sommes qu’elles reçoivent pour promouvoir des informations, et la loi autorise le CSA français à pouvoir suspendre des chaînes de télévision contrôlées ou sous influence d’un état étranger, s’il estime que cette chaîne dissémine de manière délibérée des fausses informations qui pourraient affecter l’authenticité du vote. Les sanctions imposées en violation de la loi comprennent un an de prison et une amende de 75000 euros18.

Le Royaume-Uni

26. Comme la Commissaire de l’Information du Royaume-Uni, Elisabeth Denham, nous l’a expliqué en novembre 2018, il y a une tension entre le modèle économique des médias sociaux, centré sur la publicité, et les droits humains tels que la protection de la vie privée. « C’est notre situation actuelle et il s’agit d’une tâche importante à la fois pour les régulateurs et le législateur de s’assurer que les bonnes exigences, la surveillance et sanctions sont en place » 19. Elle nous a dit que Facebook, par exemple, devrait en faire plus et devrait faire « l’objet d’une régulation et d’une surveillance plus stricte »20. Les activités de Facebook dans la scène politique sont en augmentation; l’entreprise a récemment lancé un fil d’actualités intitulé « Community Actions » avec une fonctionnalité de pétition pour, par exemple, permettre aux utilisateurs de résoudre des problèmes politiques locaux en créant ou soutenant des pétitions. Il est difficile de comprendre comment Facebook sera capable d’auto-réguler une telle fonctionnalité; plus le problème local va être sujet à controverse et litiges, plus il entrainera de l’engagement sur Facebook et donc de revenus associés grâce aux publicités 21.

Facebook et la loi

27. En dépit de toutes les excuses formulées par Facebook pour ses erreurs passées, il semble encore réticent à être correctement surveillé. Lors de la session de témoignage verbal au « Grand Comité International », Richard Alland, vice-président des solutions politiques de Facebook, a été interrogé à plusieurs reprises sur les opinions de Facebook sur la régulation, et à chaque fois il a déclaré que Facebook était très ouvert au débat sur la régulation, et que travailler ensemble avec les gouvernements seraient la meilleure option possible :

« Je suis ravi, personnellement, et l’entreprise est vraiment engagé, de la base jusqu’à notre PDG — il en a parlé en public — à l’idée d’obtenir le bon type de régulation afin que l’on puisse arrêter d’être dans ce mode de confrontation. Cela ne sert ni notre société ni nos utilisateurs. Essayons de trouver le juste milieu, où vous êtes d’accord pour dire que nous faisons un travail suffisamment bon et où vous avez le pouvoir de nous tenir responsable si nous ne le faisons pas, et nous comprenons quel le travail que nous avons à faire. C’est la partie régulation22. »

28. Ashkan Soltani, un chercheur et consultant indépendant, et ancien Responsable Technologique de la Commission Fédérale du Commerce des USA 23, a questionné la volonté de Facebook à être régulé. À propos de la culture interne de Facebook, il a dit : « Il y a ce mépris — cette capacité à penser que l’entreprise sait mieux que tout le monde et tous les législateurs » 24. Il a discuté de la loi californienne pour la vie privée des consommateurs 25 que Facebook a supporté en public, mais a combattu en coulisses 26.

29. Facebook ne semble pas vouloir être régulé ou surveillé. C’est considéré comme normal pour les ressortissants étrangers de témoigner devant les comités. En effet, en juin 2011, le Comité pour la Culture, les Médias et le Sport 27 a entendu le témoignage de Rupert Murdoch lors de l’enquête sur le hacking téléphonique 28 et le Comité au Trésor 29 a récemment entendu le témoignage de trois ressortissants étrangers 30. En choisissant de ne pas se présenter devant le Comité et en choisissant de ne pas répondre personnellement à aucune de nos invitations, Mark Zuckerberg a fait preuve de mépris envers à la fois le parlement du Royaume-Uni et le « Grand Comité International », qui compte des représentants de neufs législatures dans le monde.

30. La structure managériale de Facebook est opaque pour les personnes extérieures, et semble conçue pour dissimuler la connaissance et la responsabilité de certaines décisions. Facebook a pour stratégie d’envoyer des témoins dont ils disent qu’ils sont les plus adéquats, mais qui n’ont pas été suffisamment informés sur les points cruciaux, et ne peuvent répondre ou choisissent de ne pas répondre à nombre de nos questions. Ils promettent ensuite d’y répondre par lettre, qui —sans surprise— échouent à répondre à toutes nos questions. Il ne fait pas de doute que cette stratégie est délibérée.

Régulateurs britanniques existants

31. Au Royaume-Uni, les principales autorités compétentes — Ofcom, l’autorité pour les standards publicitaires 31, le bureau du commissaire à l’information 32, la commission électorale 33 et l’autorité pour la compétition et le marché 34 — ont des responsabilités spécifiques sur l’utilisation de contenus, données et comportements. Quand Sharon White, responsable de Ofcom, est passé devant le comité en octobre 2018, après la publication de notre rapport intermédiaire, nous lui avons posé la question si leur expérience comme régulateur de diffusion audiovisuelle pourrait être utile pour réguler les contenus en ligne. Elle a répondu :

« On a essayé d’identifier quelles synergies seraient possibles. […] On a été frappé de voir qu’il y a deux ou trois domaines qui pourraient être applicable en ligne. […] Le fait que le Parlement 35 ait mis en place des standards, ainsi que des objectifs plutôt ambitieux, nous a semblé très important, mais aussi durable avec des objectifs clés, que ce soit la protection de l’enfance ou les préoccupations autour des agressions et injures. Vous pouvez le voir comme un processus démocratique sur quels sont les maux que l’on croit en tant que société être fréquent en ligne. L’autre chose qui est très importante dans le code de diffusion audiovisuelle est qu’il explicite clairement le fait que ces choses peuvent varier au cours du temps comme la notion d’agression se modifie et les inquiétudes des consommateurs changent. La mise en œuvre est ensuite déléguée à un régulateur indépendant qui traduit en pratique ces objectifs de standards. Il y a aussi la transparence, le fait que l’on publie nos décisions dans le cas d’infractions, et que tout soit accessible au public. Il y a la surveillance de nos décisions et l’indépendance du jugement 36 ».

32. Elle a également ajouté que la fonction du régulateur de contenu en ligne devrait évaluer l’efficacité des compagnies technologiques sur leurs mesures prises contre les contenus qui ont été signalés comme abusifs. « Une approche serait de se dire si les compagnies ont les systèmes, les processus, et la gouvernance en place avec la transparence qui amène la responsabilité publique et la responsabilité devant le Parlement, que le pays serait satisfait du devoir de vigilance ou que les abus seront traités de manière constante et efficace ».37.

33. Cependant, si on demandait à Ofcom de prendre en charge la régulation des capacités des compagnies des réseaux sociaux, il faudrait qu’il soit doté de nouveaux pouvoirs d’enquête. Sharon White a déclaré au comité « qu’il serait absolument fondamental d’avoir des informations statutaires, réunissant des pouvoirs sur un domaine large ».38.

34. UK Council for Internet Safety(UKCIS) est un nouvel organisme, sponsorisé par le Ministère du Numérique, de la Culture, des Médias et du Sport, le Ministère de l’Éducation et le Ministère de l’Intérieur, il réunit plus de 200 organisations qui ont pour but de garantir la sécurité des enfants en ligne. Son site web affirme « si c’est inacceptable hors ligne, c’est inacceptable en ligne ». Son attention tiendra compte des abus en lignes comme le cyberharcèlement et l’exploitation sexuelle, la radicalisation et l’extrémisme, la violence contre les femmes et les jeunes filles, les crimes motivés par la haine et les discours haineux, et les formes de discrimination vis à vis de groupes protégés par l’Equality Act.39. Guy Parker, Pdg d’Advertising Standards Authority nous a informé que le Gouvernement pourrait se décider à intégrer les abus dans la publicité dans leur définition d’abus en ligne40.

35. Nous pensons que UK Council for Internet Safety devrait inclure dans le périmètre de ses attributions « le risque envers la démocratie » tel qu’identifié dans le « Registre des Préjudices » du Center for Human Technology, en particulier par rapport aux reportages profondément faux. Nous notons que Facebook est inclus en tant que membre d’UKCIS, compte tenu de son influence éventuelle, et nous comprenons pourquoi. Cependant, étant donné l’attitude de Facebook dans cette enquête, nous avons des réserves quant à sa bonne foi des affaires et sa capacité à participer au travail d’UKCIS dans l’intérêt du public, par opposition à ses intérêts personnels.

36. Lorsqu’il a été demandé au Secrétaire du Numérique, de la Culture, des Médias et des Sports, le Très Honorable député Jeremy Wright, de formuler un spectre des abus en ligne, sa réponse était limitée. « Ce que nous devons comprendre est à quel point les gens sont induits en erreur ou à quel point les élections ont été entravées de manière délibérée ou influencée, et si elle le sont […] nous devons trouver des réponses appropriées et des moyens de défense. Cela fait partie d’un paysage bien plus global et je ne crois par que c’est juste de le segmenter41. Cependant, une fois que nous avons défini les difficultés autour de la définition, l’étendue et la responsabilité des abus en ligne, le Secrétaire d’État était plus coopératif lorsqu’on lui a posé la question sur la régulation des compagnies de réseaux sociaux, et a déclaré que le Royaume-Uni devrait prendre l’initia

37. Notre rapport intermédiaire recommandait que des responsabilités juridiques claires soient définies pour les compagnies technologiques, afin qu’elles puissent prendre des mesures allant contre des contenus abusifs ou illégaux sur leurs sites. À l’heure actuelle, il est urgent de mettre en œuvre des règlements indépendants. Nous croyons qu’un Code d’Éthique obligatoire doit être implémenté, supervisé par un régulateur indépendant, définissant ce que constitue un contenu abusif. Le régulateur indépendant aurait des pouvoirs conférés par la loi pour surveiller les différentes compagnies technologiques, cela pourrait créer un système réglementaire pour les contenus en ligne qui est aussi effectif que pour ceux des industries de contenu hors ligne.

38. Comme nous l’avons énoncé dans notre rapport intermédiaire, un tel Code d’Éthique devrait ressembler à celui du Broadcasting Code publiée par Ofcom, qui se base sur des lignes directrices définies dans la section 319 du Communications Acts de 2003. Le Code d’Éthique devrait être mis au point par des experts techniques et supervisés par un régulateur indépendant, pour pouvoir mettre noir sur blanc ce qui est acceptable et ce qui ne l’est pas sur les réseaux sociaux, notamment les contenus abusifs et illégaux qui ont été signalés par leurs utilisateurs pour être retirés, ou qu’il aurait été facile d’identifier pour les compagnies technologiques elles-mêmes.

39. Le processus devrait définir une responsabilité juridique claire pour les compagnies technologiques de prendre des mesures contre les contenus abusifs et illégaux sur leur plateforme et ces compagnies devraient mettre en place des systèmes adaptés pour marquer et retirer des « types d’abus » et s’assurer que les structures de cybersécurité soient implémentées. Si les compagnies techniques (y compris les ingénieurs informaticiens en charge de la création des logiciels pour ces compagnies) sont reconnues fautifs de ne pas avoir respecté leurs obligations en vertu d’un tel code, et n’ont pas pris de mesure allant contre la diffusion de contenus abusifs et illégaux, le régulateur indépendant devrait pouvoir engager des poursuites judiciaires à leur encontre, dans l’objectif de les condamner à payer des amendes élevées en cas de non-respect du Code.

40. C’est le même organisme public qui devrait avoir des droits statutaires pour obtenir toute information de la part des compagnies de réseaux sociaux qui sont en lien avec son enquête. Cela pourrait concerner la capacité de vérifier les données qui sont conservées sur un utilisateur, s’il demandait ces informations. Cet organisme devrait avoir accès aux mécanismes de sécurité des compagnies technologiques et aux algorithmes, pour s’assurer qu’ils travaillent de manière responsable. Cet organisme public devrait être accessible au public et recevoir les plaintes sur les compagnies des réseaux sociaux. Nous demandons au gouvernement de soumettre ces propositions dans son prochain livre blanc.

Utilisation des données personnelles et inférence

41. Lorsque Mark Zuckerberg a fourni les preuves au congrès en avril 2018, dans la suite du scandal Cambridge Analytica, il a fait la déclaration suivante : « Vous devriez avoir un contrôle complet sur vos données […] Si nous ne communiquons pas cela clairement, c’est un point important sur lequel nous devons travailler ». Lorsqu’il lui a été demandé à qui était cet « alterego virtuel », Zuckerberg a répondu que les gens eux-mêmes possèdent tout le « contenu » qu’ils hébergent sur la plateforme, et qu’ils peuvent l’effacer à leur gré42. Cependant, le profil publicitaire que Facebook construit sur les utilisateurs ne peut être accédé, contrôlé ni effacé par ces utilisateurs. Il est difficile de concilier ce fait avec l’affirmation que les utilisateurs possèdent tout « le contenu » qu’ils uploadent.

42. Au Royaume-Uni, la protection des données utilisateur est couverte par le RGPD (Règlement Général de Protection des Données)43. Cependant, les données « inférées » ne sont pas protégées ; cela inclut les caractéristiques qui peuvent être inférées sur les utilisateurs et qui ne sont pas basées sur des informations qu’ils ont partagées, mais sur l’analyse des données de leur profil. Ceci, par exemple, permet aux partis politiques d’identifier des sympathisants sur des sites comme Facebook, grâce aux profils correspondants et aux outils de ciblage publicitaire sur les « publics similaires ». Selon la propre description de Facebook des « publics similaires », les publicitaires ont l’avantage d’atteindre de nouvelles personnes sur Facebook « qui ont des chances d’être intéressées par leurs produits car ils sont semblables à leurs clients existants » 44.

43. Le rapport de l’ICO, publié en juillet 2018, interroge sur la présomption des partis politques à ne pas considérer les données inférées comme des données personnelles:

« Nos investigations montrent que les partis politiques n’ont pas considéré les données inférées comme des informations personnelles car ce ne sont pas des informations factuelles. Cependant, le point de vue de l’ICO est que ces informations sont basées sur des hypothèses sur les intérets des personnes et leurs préférences, et peuvent être attribuées à des individus spécifiques, donc ce sont des informations personnelles et elles sont soumises aux contraintes de la protection des données 45. »

44. Les données inférées sont donc considérées par l’ICO comme des données personnelles, ce qui devient un problème lorsque les utilisateurs sont informés qu’ils disposent de leurs propres données, et qu’ils ont un pouvoir sur où les données vont, et ce pour quoi elles sont utilisées. Protéger nos données nous aide à sécuriser le passé, mais protéger les inférences et l’utilisation de l’Intelligence Artificielle (IA) est ce dont nous avons besoin pour protéger notre futur.

45. La commissaire à l’information, Elizabeth Denham, a souligné son intérêt sur l’utilisation des données inférées dans les campagnes politiques lorsqu’elle a fourni des preuves au comité en novembre 2018, déclarant qu’il y a eu :

« Un nombre dérangeant de manque de respect des données personnelles des votants et des votants potentiels. Ce qui s’est passé ici est que le modèle familier aux gens du secteur commercial sur le ciblage des comportements a été transféré – je pense transformé – dans l’arène politique. C’est pour cela que j’appelle à une pause éthique, afin que nous puissions y remédier. Nous ne voulons pas utiliser le même modèle qui nous vend des vacances, des chaussures et des voitures pour collaborer avec des personnes et des votants. Les gens veulent plus que ça. C’est le moment pour faire un pause pour regarder les codes, regarder les pratiques des entreprises de réseaux sociaux, de prendre des mesures là où ils ont enfreint la loi. Pour nous, le principal but de ceci est de lever le rideau et montrer au public ce qu’il advient de leurs données personnelles 46. »

46. Avec des références explicites sur l’utilisation des « publics similaires » de Facebook, Elizabeth Denham a expliqué au comité qu’ils « devaient être transparents envers les [utilisateurs] privés. Ils ont besoin de savoir qu’un parti politique, ou un membre du parlement, fait usage des publics similaires. Le manque de transparence est problématique47. Lorsque nous avons demandé à la commissaire à l’information si elle pensait que l’utilisation des « publics similaires » était légal selon le RGPD, elle a répondu : « Nous avons besoin de l’analyser en détail sous la loupe du RGPD, mais je pense que le public est mal à l’aise avec les publics similaires, et il a besoin que ce soit transparent » 48. Les gens ont besoin de savoir que l’information qu’ils donnent pour un besoin spécifique va être utilisé pour inférer des informations sur eux dans d’autres buts.

47. Le secrétaire d’état, le très honorable membre du parlement Jeremy Wright, nous a également informé que le framework éthique et législatif entourant l’IA devait se développer parallèlement à la technologie, ne pas « courir pour [la] rattraper », comme cela s’est produit avec d’autres technologies dans le passé 49. Nous devons explorer les problèmes entourant l’IA en détail, dans nos enquêtes sur les technologies immersives et d’addictives, qui a été lancée en décembre 2018 50.

48. Nous soutenons la recommandation de l’ICO comme quoi les données inférées devraient être protégées par la loi comme les informations personnelles. Les lois sur la protection de la vie privée devraient être étendues au-delà des informations personnelles pour inclure les modèles utilisés pour les inférences sur les individus. Nous recommandons que le gouvernement étudie les manières dont les protections de la vie privée peuvent être étendues pour inclure les modèles qui sont utilisés pour les inférences sur les individus, en particulier lors des campagnes politiques. Cela nous assurerait que les inférences sur les individus sont traitées de manière aussi importante que les informations personnelles des individus.

Rôle accru de l’OIC et taxe sur les entreprises de technologie

49. Dans notre rapport intérimaire, nous avons demandé que l’OIC soit mieux à même d’être à la fois un « shérif efficace dans le Far West de l’Internet » et d’anticiper les technologies futures. L’OIC doit avoir les mêmes connaissances techniques, sinon plus, que les organisations examinées51. Nous avons recommandé qu’une redevance soit prélevée sur les sociétés de technologie opérant au Royaume-Uni, pour aider à payer ces travaux, dans le même esprit que la façon dont le secteur bancaire paie les frais de fonctionnement de l’autorité de régulation Financière 52 51.

50. Lorsque l’on a demandé au secrétaire d’État ce qu’il pensait d’une redevance, il a répondu, en ce qui concerne Facebook en particulier: « Le Comité est rassuré que ce n’est pas parce que Facebook dit qu’il ne veut pas payer une redevance, qu’il ne sera pas question de savoir si nous devrions ou non avoir une redevance »53. Il nous a également dit que « ni moi, ni, je pense franchement, l’OIC, ne pensons qu’elle soit sous-financée pour le travail qu’elle a à faire actuellement. […] Si nous devons mener d’autres activités, que ce soit en raison d’une réglementation ou d’une formation supplémentaires, par exemple, il faudra bien qu’elles soient financées d’une façon ou d’une autre. Par conséquent, je pense que la redevance vaut la peine d’être envisagée »54.

51. Dans notre rapport intermédiaire, nous avons recommandé qu’une redevance soit prélevée sur les sociétés de technologie opérant au Royaume-Uni pour soutenir le travail renforcé de l’OIC. Nous réitérons cette recommandation. La décision du chancelier, dans son budget de 2018, d’imposer une nouvelle taxe de 2% sur les services numériques sur les revenus des grandes entreprises technologiques du Royaume-Uni à partir d’avril 2020, montre que le gouvernement est ouvert à l’idée d’une taxe sur les entreprises technologiques. Dans sa réponse à notre rapport intermédiaire, le gouvernement a laissé entendre qu’il n’appuierait plus financièrement l’OIC, contrairement à notre recommandation. Nous exhortons le gouvernement à réévaluer cette position.

52. Le nouveau système indépendant et la nouvelle réglementation que nous recommandons d’établir doivent être financés adéquatement. Nous recommandons qu’une taxe soit prélevée sur les sociétés de technologie opérant au Royaume-Uni pour financer leur travail.




Désinformation, le rapport – 2

La traduction suivante est la suite et la continuation du travail entamé la semaine dernière sur le long rapport final élaboré par le comité « Digital, Culture, Media and Sport » du Parlement britannique, publié le 14 février dernier, sur la désinformation et la mésinformation.

Il s’agit cette fois de poser le décor. Participants, méthodes de travail, acteurs audités. Une bonne mise en bouche qui vous rendra impatient⋅e de lire les articles suivants.

Le groupe Framalang a en effet entrepris de vous communiquer l’intégralité du rapport en feuilleton suivant l’avancement de la traduction.

Vous trouverez le texte intégral en suivant ce lien vers le PDF original (3,8 Mo).

La traduction est effectuée par le groupe Framalang, avec l’aide de toutes celles et ceux qui veulent bien participer et pour cet opus :
Lumibd, maximefolschette, Alio, wazabyl, Khrys, serici, Barbara + 1 anonyme

Introduction et contexte

1. Le Rapport Provisoire du Comité DCMS, « Désinformation et infox », a été publié en juillet 2018 55. Depuis l’été 2018, le Comité a tenu trois audiences supplémentaires pour y entendre témoigner les organismes de réglementation du Royaume-Uni et le gouvernement, et nous avons reçu 23 autres témoignages écrits 56. Nous avons également tenu un “International Grand Commitee”57 en novembre 2018, auquel ont participé des parlementaires de neuf pays : Argentine, Belgique, Brésil, Canada, France, Irlande, Lettonie, Singapour et Royaume-Uni.

2. Notre longue enquête sur la désinformation et la mésinformation a mis en lumière le fait que les définitions dans ce domaine sont importantes. Nous avons même changé le titre de notre enquête de « infox » à « désinformation et infox », car le terme “infox” a développé sa propre signification très connotée. Comme nous l’avons dit dans notre rapport préliminaire les “infox” ont été utilisées pour décrire un contenu qu’un lecteur pourrait ne pas aimer ou désapprouver. Le président américain Donald Trump a qualifié certains médias de « faux médias d’information » et d’être « les véritables ennemis du peuple »58.

3. Nous sommes donc heureux que le gouvernement ait accepté les recommandations de notre rapport provisoire et, au lieu d’utiliser l’expression “infox”, il utilise l’expression « désinformation » pour décrire « la création et le partage délibérés de renseignements faux ou manipulés qui visent à tromper et à induire en erreur le public, soit dans le but de nuire, soit pour leur procurer un avantage politique, personnel ou financier »59.

4. Ce rapport final s’appuie sur les principales questions mises en évidence dans les sept domaines couverts dans le rapport provisoire : la définition, le rôle et les responsabilités juridiques des plateformes de médias sociaux ; le mauvais usage des données et le ciblage, fondé sur les allégations Facebook, Cambridge Analytica et Aggregate IQ (AIQ), incluant les preuves issues des documents que nous avons obtenus auprès de Six 4 Three à propos de la connaissance de Facebook de donnés de partages et sa participation dans le partage de données ; les campagnes électorales ; l’influence russe dans les élections étrangères l’influence des SCL dans les élections étrangères; et la culture numérique. Nous intégrons également les analyses réalisées par la société de conseil 89up, les données litigieuses relatives à la base de données AIQ que nous avons reçues de Chris Vickery.

5. Dans le présent rapport final, nous nous appuyons sur les recommandations fondées sur des principes formulés dans le rapport provisoire. Nous avons hâte d’entendre la réponse du gouvernement à ces recommandations d’ici deux mois. Nous espérons que cette réponse sera beaucoup plus complète, pratique et constructive que leur réponse au rapport provisoire publié en octobre 2018. 60 Plusieurs de nos recommandations n’ont pas reçu de réponse substantielle et il est maintenant urgent que le gouvernement y réponde. Nous sommes heureux que le Secrétaire d’État, le très honorable député Jeremy Wright, ait décrit nos échanges comme faisant partie d’un « processus itératif » et que ce rapport soit « très utile, franchement, pour pouvoir alimenter nos conclusions futures avant la rédaction du Livre Blanc » et que nos opinions fassent partie des considérations du gouvernement. 61 Nous attendons avec impatience le livre blanc du gouvernement dénommé Online Harms, rédigé par le Ministère du Numérique, de la Culture, des Médias et des Sports et le Ministère de l’Intérieur, qui sera publié au début de 2019, et qui abordera les questions des préjudices en ligne, y compris la désinformation. 62 Nous avons réitéré plusieurs des recommandations figurant dans notre rapport provisoire, demeurées sans réponse de la part du gouvernement auxquelles le gouvernement n’a pas répondu. Nous présumons et nous nous espérons que le gouvernement réponde à la fois aux recommandations du présent rapport final et à celles du rapport provisoire restées sans réponse.

6. Ce rapport final est le fruit de plusieurs mois de collaboration avec d’autres pays, organisations, parlementaires et particuliers du monde entier. Au total, le Comité a tenu 23 séances d’audiences, reçu plus de 170 mémoires écrits, entendu 73 témoins, posé plus de 4 350 questions lors de ces audiences et eu de nombreux échanges de correspondance publique et privée avec des particuliers et des organisations.

7. Il s’agit d’une enquête collaborative, dans le but de s’attaquer aux questions techniques, politiques et philosophiques complexes qui sont en jeu et de trouver des solutions pratiques à ces questions. Comme nous l’avons fait dans notre rapport provisoire, nous remercions les nombreuses personnes et entreprises, tant nationales qu’internationales, y compris nos collègues et associés en Amérique, d’avoir bien voulu nous partager leurs opinions et informations. 63

8. Nous aimerions également souligner le travail réalisé par d’autres parlementaires qui se sont penchés sur des questions semblables en même temps que notre enquête. Le Comité permanent canadien de l’accès à l’information, de la protection des renseignements personnels et de l’éthique a publié en décembre 2018 un rapport intitulé « Démocratie menacée : risques et solutions à l’ère de la désinformation et du monopole des données » 64 . Ce rapport souligne l’étude du Comité canadien sur la violation des données personnelles impliquant Cambridge Analytica et Facebook, et les questions concernant plus largement l’utilisation faite des données personnelles par les média sociaux et leur responsabilité dans la diffusion d’information dites fake news ou dans la désinformation . Leurs recommandations concordent avec bon nombre des nôtres dans le présent rapport.

9. La commission du Sénat américain sur le renseignement mène actuellement une enquête sur l’ampleur de l’ingérence de la Russie dans les élections américaines de 2016. Grâce à l’ensemble des données fournis par Facebook, Twitter et Google au Comité du renseignement, sous la direction de son groupe de conseillers techniques, deux rapports tiers ont été publiés en décembre 2018. New Knowledge , une société travaillant sur l’intégrité de l’information, a publié “The Tactics and Tropes of the Internet Research Agency” (La stratégie et la rhétorique de l’agence de renseignement sur internet), qui met en lumière les tactiques et les messages utilisés par ladite agence pour manipuler et influencer les américains, rapport qui inclus un ensemble de présentations, des statistiques éclairantes, des infographies et un présentation thématique de mèmes 65. The Computational Propaganda Research Project (Le projet de recherche sur la propagande informatique) et Graphikap ont publié le second rapport, qui porte sur les activités de comptes connus de l’Internet Research Agency, utilisant Facebook, Instagram, Twitter et YouTube entre 2013 et 2018, afin d’influencer les utilisateurs américains 66. Ces deux rapports seront intégrés au rapport du Comité du renseignement en 2019.

10. La réunion du Grand Comité International qui s’est tenue en novembre 2018 a été le point culminant de ce travail collaboratif. Ce Grand Comité International était composé de 24 représentants démocratiquement élus de neuf pays, incluant 11 membres du Comité du DCMS, qui représentent au total 447 millions de personnes. Les représentants ont signé un ensemble de principes internationaux lors de cette réunion. 67 Nous avons échangé des idées et des solutions en privé et en public, et nous avons tenu une séance de témoignage oral de sept heures. Nous avons invité Mark Zuckerberg, PDG de Facebook, l’entreprise de média social qui compte plus de 2,25 milliards d’utilisateurs et qui a réalisé un chiffre d’affaires de 40 milliards de dollars en 2017, à témoigner devant nous et devant ce Comité ; il a choisi de refuser, par trois fois68. Cependant, dans les 4 heures qui ont suivi la publication des documents obtenus auprès de Six4Three – concernant la connaissance et la participation au partage de données par Facebook, M. Zuckerberg a répondu par un message sur sa page Facebook 69. Nous remercions nos collègues du “International Grand Commitee” pour leur participation à cette importante session, et nous espérons pouvoir continuer notre collaboration cette année.

 




Mastodon, un an après le défi

Aujourd’hui 19 février nous célébrons un anniversaire symbolique : voici exactement un an qu’un certain Eugen Roschko a répondu publiquement à Mark Zuckerberg et mentionné le réseau social Mastodon qu’il avait créé quelques mois auparavant.

Cette lettre ouverte mérite d’être relue : Eugen y réfute les prétentions de Facebook à donner du pouvoir à la communauté, explique à quel point Facebook est par essence incapable de le faire et surtout propose une voie qui restitue aux utilisateurs leur maîtrise : la fédération, telle que mise en œuvre avec Mastodon.

Ce qui nous a séduits dans ce message, ce n’est pas seulement l’audace tranquille du jeune homme, le côté David contre Goliath, c’est aussi qu’il y mettait sur la table avec son interpellation du magnat Zuckerberg un logiciel fonctionnel. Eugen Roschko avait créé quelque chose qui démontrait qu’une autre voie est possible, y compris pour les réseaux sociaux.

Peu importe ensuite si le succès a été au rendez-vous. Certes, le cap du million d’utilisateurs inscrits a été franchi en décembre dernier, mais on est évidemment assez loin des milliards d’usagers captifs de Facebook et Twitter. L’important c’est plutôt que la multiplication des instances a été phénoménale, depuis celles qui appliquent une modération et des conditions d’utilisations strictes dans l’objectif de constituer des safe spaces, jusqu’aux instances victimes de leur succès et dont il a fallu limiter les inscriptions, en passant par notre modeste et convivial Framapiaf

Si vous découvrez tout cela et hésitez encore, rendez-vous sur cette excellente page informative qui vous aidera à choisir quelle instance pourrait vous convenir le mieux (mais rien ne vous interdira de changer d’instance ensuite à votre gré).

À relire aujourd’hui le message d’Eugen on mesure mieux qu’il s’inscrit dans un courant plus large et désormais toujours croissant de prise de conscience et de remise en question des Léviathans du Web. Une prise de conscience qui passe par la mise à disposition du public d’alternatives crédibles et respectueuses, une remise en cause qui passe par le refus de l’inféodation des utilisateurs, de l’arbitraire centralisateur et de l’espionnage étatique dans notre vie privée en ligne.

 

 

Le pouvoir de bâtir des communautés, une réponse à Mark Zuckerberg

par Eugen Roschko

parution originale le 19 février 2017 sur le site de Hackernooon.

Traduction Framalang : goofy, mo, audionuma, Bromind,moutmout

un des avatars d’Eugen Roschko alias Gargron

Le manifeste de Mark Zuckerberg est peut-être animé de bonnes intentions, mais comporte une chose fondamentalement fausse :

« Dans des moments comme ceux-ci, la chose la plus importante que nous puissions faire chez Facebook est de développer l’infrastructure du réseau social pour donner aux gens la possibilité de bâtir une communauté mondiale qui fonctionne pour nous tous. »

 

Facebook n’est pas et ne pourra jamais être une plateforme où les gens ont le pouvoir de construire quoi que ce soit. Facebook ne peut même pas  prétendre être un organisme à but non lucratif comme le sont Wikipédia ou Mozilla ; l’objectif principal de l’entreprise ne fait aucun doute : tirer profit de vous le plus possible en analysant vos données et en vous montrant des annonces publicitaires contre l’argent de l’annonceur. Un avenir où Facebook est l’infrastructure sociale mondiale, c’est un avenir sans aucun refuge contre la publicité et l’analyse des données.

Facebook ne peut tout simplement pas donner à quiconque le pouvoir de faire quoi que ce soit, parce que ce pouvoir résidera toujours, en fin de compte, dans Facebook lui-même, qui contrôle à la fois le logiciel, les serveurs et les politiques de modération.

Non, l’avenir des médias sociaux doit passer par la fédération. Le pouvoir ultime consiste à donner aux gens la capacité de créer leurs propres espaces, leurs propres communautés, de modifier le logiciel comme ils le jugent bon, mais sans sacrifier la capacité des personnes de différentes communautés à interagir les unes avec les autres. Bien sûr, tous les utilisateurs finaux n’ont pas forcément envie de gérer leur propre petit réseau social, de même que tous les citoyens ne sont pas tous intéressés par la gouvernance de leur propre petit pays. Mais je pense qu’il y a une bonne raison pour laquelle de nombreux pays se composent d’États séparés mais compatibles, et pour laquelle de nombreux pays distincts mais compatibles forment des alliances comme l’Union européenne ou l’OTAN. Un mélange entre souveraineté et union. Fédération.

Internet a connu beaucoup de hauts et de  bas du côté des réseaux sociaux. MySpace. Friendfeed. Google++. App. net. Et absolument à chaque fois différentes expériences utilisateurs, de nouveaux comptes, la nécessité de convaincre vos amis de changer, ou d’avoir plusieurs comptes pour parler à tous. Pensez-vous que ce cycle s’arrêtera avec Facebook ? Les dynamiques communautaires garantissent dans une certaine mesure un cycle ascendant et descendant, mais nous pourrions arrêter de rebondir d’un site à l’autre et nous en tenir à un protocole standardisé. Le courriel n’est peut-être pas sexy, car il a été créé à une époque où les choses étaient plus simples, mais on ne peut pas s’empêcher de trouver génial qu’il fonctionne toujours, quel que soit le fournisseur qu’on choisit.

Voulez-vous vraiment que le site web, qui affiche les photos de vos amis avec la légende « vous allez leur manquer » quand vous essayez de supprimer votre compte, soit aux commandes d’une communauté mondiale ?

Je crois qu’avec Mastodon, j’ai créé un logiciel qui est vraiment une alternative crédible à Twitter. C’est un serveur de microblogging fédéré dans le prolongement de GNU Social, mais qui contrairement à GNU Social est capable de plaire aux gens qui n’ont jamais marqué un intérêt particulier pour le logiciel en lui-même. Autrement dit, il est utilisable par des personnes non techniques. Je ne sais pas si le travail que je fais est assez bon pour servir l’avenir de l’humanité, mais je pense que c’est au moins un pas sérieux dans la bonne direction.

Eugen Rochko,
Développeur de Mastodon, administrateur de mastodon.social, l’instance d’exemple

 

 

 

Edit 19/02/2018 : Suite à la demande de mastonautes, nous avons modifié la locution désignant les instances safe spaces dans notre introduction. En effet, en les décrivant comme « fermées comme des huîtres » notre intention était de faire un mot d’humour, et certainement pas de dénigrer l’utilité de ces instances en particulier et des safes spaces en général. Clairement, cette tournure de phrase a totalement trahi nos intentions (un bug), donc merci aux mastonautes qui nous l’ont signalé (bug report) et à celleux qui ont suggéré une façon de le dire plus proche de ce que nous pensons (bug fix). La diversité est une force du Libre et des réseaux fédérés, tout comme le dialogue, le droit à l’expérimentation et à l’erreur ;).




Des nouvelles de notre ami Facebook – mai 2017

La revue de presse de Jonas, qui paraît quand il a le temps.

Tiens ça faisait un moment qu’on ne vous avait pas parlé de Facebook — Hein ? On en parle tout le temps ?

Oui bien sûr, mais son emprise est telle qu’on pourrait tenir une chronique quotidienne sur ce Léviathan. Dans la surabondante actualité de ce géant du Net, Jonas a prélevé trois petites choses :

1. C’est la grande forme

Quand nous nous réjouissons du rapide succès des instances de Mastodon en si peu de temps (venez sur Framapiaf, ou mieux installez votre propre instance et rejoignez le Fediverse) qui a dépassé les 600 000 utilisateurs en un mois, nous sommes bien loin de l’usage massif des réseaux sociaux propriétaires et centralisés. En ce qui concerne Facebook c’est « 1,94 milliard d’utilisateurs actifs mensuels, en hausse de 17 % par rapport au premier trimestre de 2016, avec un bénéfice net d’un peu plus de 3 milliards de dollars, en hausse de 76 pour cent par rapport à la même période l’an dernier », comme le rappelle le magazine the Verge.

 2. À la conquête de ce qui reste du monde

Facebook va toujours plus loin dans l’offre du « tout compris », il s’agit maintenant de maintenir captive la clientèle en lui proposant un service de messagerie. C’est ce que résumait le mois dernier l’article de NextInpact : la Messenger Platform 2.0 veut conquérir le monde avec ses bots. Car il ne s’agit pas d’une messagerie comme les autres : les bots doivent faire l’essentiel du travail :

Des bots de traduction aidant les réfugiés, aux bots qui répondent aux questions de santé, aux occasions de soutenir les causes et même les expériences qui aident les élèves à faire leurs devoirs, la créativité, l’ingéniosité et la vision de notre communauté de développeurs de bot ont été géniaux.
Nous pensons que Messenger va devenir le nouveau salon social du monde, où les gens peuvent sortir, partager, discuter, jouer à des jeux ou acheter des choses, tout en pouvant atteindre presque tout le monde, où qu’ils se trouvent. Nous pensons maintenant que nous combinons deux outils du passé: l’annuaire téléphonique (comme nous l’avons utilisé pour trouver des personnes) avec les Pages Jaunes (la façon dont nous avons l’habitude de trouver des entreprises). (source : le Newsroom de Facebook)

On l’a compris : l’objectif de Facebook, comme celui des autres géants du web est d’investir l’espace privé comme l’espace public, à tout instant, en effaçant le plus possible la limite déjà peu perceptible entre service rendu et commerce, sans solution de continuité. Le monde que propose Facebook à ses milliards d’utilisateurs est celui des animaux en batterie dans une ferme industrielle.

Vaches charolaises – photo par JPC24M – (CC-BY-SA-2.0)

3. L’intrusion est une vocation

Avec Facebook, c’est deux pas en avant, un pas en arrière… à chaque fois que Facebook est pris la main dans le sac pour une pratique douteuse, l’ineffable Mark Zuckerberg jure ses grands dieux, la main sur le cœur, que c’était pour la bonne cause, que toutes les précautions ont été prises, qu’aucune loi n’a été transgressée… et peu à peu nous baissons la garde et Facebook s’autorise à des pratiques de plus en plus douteuses.
Souvenez-vous, déjà en 2012, Facebook a mené une expérience qui avait déclenché la polémique sur certains de ses utilisateurs. Près de 700.000 d’entre eux ont servi de cobayes sans le savoir. Des scientifiques ont modifié les flux d’actualité des utilisateurs en bougeant le curseur du nombre de messages positifs et négatifs, pour observer les réactions sur « l’humeur » des cobayes… (source : magazine ZDNET 700 000 utilisateurs manipulés par une expérience sur la contagion émotionnelle).

Aujourd’hui, ces pratiques douteuses semblent n’avoir pas changé. En effet, le journal The Australian révèle que Facebook a mené des recherches pour cibler les adolescents émotionnellement vulnérables et insécurisés de manière à faciliter les pratiques publicitaires prédatrices.

En surveillant les messages, les commentaires et les interactions sur le site, Facebook peut savoir quand les personnes âgées de 14 ans se sentent « vaincues », « submergées », « stressées », « anxieuses », « nerveuses », « stupide », « idiot », « inutile » et « échec ».Ces informations recueillies au moyen d’un système sur l’analyse du sentiment pourraient être utilisées par les annonceurs pour cibler les jeunes utilisateurs de Facebook lorsqu’ils sont potentiellement plus vulnérables.

Dessin réalisé par l’artiste Pawel Kuczynski (son site Web)

La politique d’utilisation des données de Facebook nous avertit que l’entreprise « peut utiliser les informations que nous recevons à propos de vous… pour les opérations internes, y compris le dépannage, l’analyse des données, les tests, la recherche et l’amélioration des services ».
Les informations telles que votre statut « relationnel », votre emplacement, votre âge, votre nombre d’amis et à la manière dont vous accédez au site sont vendus aux annonceurs.

Encore une fois, Facebook a rapidement présenté des excuses et a déclaré à l’Australian :

une enquête sera menée sur la question, nous admettons qu’il était inapproprié de cibler les jeunes enfants de cette manière.

— des excuses… jusqu’à la prochaine fois ?

Allez hop, on vous rappelle avec ce bon vieux Richard Stallman que…

Facebook n’est pas votre ami, c’est un système de surveillance (source)

 

Pour aller plus loin

Pour fuir Facebook et trouver une alternative libre et décentralisée, vous avez le réseau social Diaspora*, dont nous proposons une instance nommée Framasphère* !




Facebook n’est pas un réseau social, c’est un scanner qui nous numérise

Aral Balkan est dans le monde de l’informatique une voix singulière, peut-être signe d’un changement de mentalités au sein de cette nébuleuse généralement plus préoccupée de technologie que de la marche du monde.

C’est en effet sur le terrain politique et même idéologique (ça y est, en deux mots on a déjà perdu les startupers !) qu’il place son travail, dans une perspective militante.

Contempteur sans concession du « capitalisme de surveillance » ( voir ce que nous avons publié sur cette question), il se place ici en rupture totale avec le discours à visée hégémonique que vient de tenir Mark Zuckerberg.

Pour Aral Balkan, tous les objets numériques qui nous prolongent sont autant d’émanations fragmentaires de notre personnalité, nous devrions donc en reconquérir la souveraineté et en défendre les droits battus en brèche par les Léviathans qui les captent et les monétisent.

il nous faut selon lui travailler à créer un autre monde (eh oui, carrément) où nous aurions retrouvé la maîtrise de toutes les facettes de nos personnalités numériques, il indique même quelques pistes dont certaines sont « déjà là » : les biens communs, les licences libres, le pair à pair…

Certains ne manqueront pas de traiter sa vision d’utopie avec un haussement d’épaules, avant de se résigner à un statu quo qui mutile notre humanité.

Découvrez plutôt sans préjugés un discours disruptif qui peut-être porte en germe une flexion décisive dans notre rapport au numérique.

Article original d’Aral Balkan sur son blog : Encouraging individual sovereignty and a healthy commons

Traduction Framalang : mo, panique, jaaf, valvin, goofy, jeromecc

Encourager la maîtrise de chacun et la bonne santé des biens communs

Dans son manifeste récent Mark Zuckerberg mettait en valeur sa vision d’une colonie mondiale centralisée dont les règles seraient dictées par l’oligarchie de la Silicon Valley.

J’affirme que nous devons faire exactement l’inverse et œuvrer à un monde fondé sur la souveraineté individuelle et un patrimoine commun sain.

Nous sommes des êtres fragmentés. Construisons un monde où nous détenons et contrôlons toutes les facettes de notre personnalité.

 

Mark Zuckerberg a publié un manifeste intitulé « Construisons une communauté mondiale » dans lequel il détaille comment lui, un des 8 plus riches milliardaires au monde) et son empire entrepreneurial américain/multinational, Facebook Inc., vont résoudre tous les maux du monde.

Dans sa vision grandiose pour l’humanité, Mark revient sur la façon dont fondamentalement, Facebook « nous rapproche » en « connectant nos amis et nos familles ». Ce que Mark oublie de dire c’est que Facebook ne connecte pas les gens entre eux ; Facebook connecte les gens à Facebook Inc.

Facebook : Le mythe. Mark souhaite que vous pensiez que Facebook vous connecte les uns aux autres.

Facebook : la réalité. Facebook vous connecte à Facebook Inc.

Le modèle économique de Facebook c’est d’être « l’homme du milieu » : il consiste à pister tous vos comportements, votre famille, vos amis, à stocker indéfiniment des informations et les analyser en permanence pour vous connaître, vous exploiter en vous manipulant afin d’en tirer un bénéfice financier ou politique.

Facebook n’est pas un réseau social, c’est un scanner qui numérise les êtres humains. C’est, pour ainsi dire, une caméra qui capte votre âme.
Le business de Facebook consiste à créer un double de vous-même, à s’emparer de ce double et à le contrôler, pour vous posséder et vous contrôler.

Quand Mark vous demande de lui faire confiance pour être un roi bienveillant, je réponds que nous bâtirons un monde sans roi.

Le modèle économique de Facebook, Google et de la cohorte des startups financées par le capital-risque de la Silicon Valley, j’appelle ça de l’élevage d’être humains. Facebook est une ferme industrielle pour les êtres humains. Et le manifeste de Mark n’est rien d’autre que la dernière tentative d’un milliardaire paniqué pour enjoliver un modèle d’affaires répugnant fondé sur la violation des droits humains avec l’objectif faussement moral de se débarrasser de la réglementation et de justifier un désir décomplexé de créer une seigneurie à l’échelle planétaire, en connectant chacun d’entre nous à Facebook, Inc.

Refusons une colonie globale

Le manifeste de Mark ne vise pas à construire une communauté globale, il vise à construire une colonie globale – dont il serait le roi et dont son entreprise et l’oligarchie de la Silicon Valley seraient la cour.

Facebook veut nous faire croire qu’il s’agit d’un parc de loisirs alors qu’il s’agit d’un centre commercial.

Ce n’est pas le rôle d’une entreprise de « développer l’infrastructure sociale d’une communauté » comme Mark veut le faire. L’infrastructure sociale doit faire partie des biens communs, et non pas appartenir aux entreprises monopolistiques géantes comme Facebook. La raison pour laquelle nous nous retrouvons dans un tel bazar avec une surveillance omniprésente, des bulles de filtres et des informations mensongères (de la propagande) c’est que, précisément, la sphère publique a été totalement détruite par un oligopole d’infrastructures privées qui se présente comme un espace public.

Facebook veut nous faire croire qu’il s’agit d’un parc alors qu’il s’agit d’un centre commercial. La dernière chose dont nous ayons besoin c’est d’une infrastructure numérique encore plus centralisée et détenue par des intérêts privés pour résoudre les problèmes créés par une concentration sans précédent de puissance, de richesse et de contrôle entre les mains de quelques-uns. Il est grand temps que nous commencions à financer et à construire l’équivalent numérique de parcs à l’ère du numérique au lieu de construire des centres commerciaux de plus en plus grands.

D’autres ont critiqué en détail le manifeste de Mark. Je ne vais pas répéter ici ce qu’ils ont dit. Je voudrais plutôt me concentrer sur la manière dont nous pouvons construire un univers radicalement différent de celui de la vision de Mark. Un monde dans lequel, nous, individus, au lieu des entreprises, aurons la maîtrise et le contrôle de notre être. En d’autres termes, un monde dans lequel nous aurons la souveraineté individuelle.

Là où Mark vous demande de lui faire confiance en tant que roi bienveillant, je réponds : construisons un monde sans roi. Là où la vision de Mark s’enracine dans le colonialisme et la perpétuation d’un pouvoir et d’un contrôle centralisés, la mienne est fondée sur la souveraineté individuelle et avec des biens communs en bonne santé et distribués.

La souveraineté individuelle et le moi cybernétique.

Nous ne pouvons plus nous offrir le luxe de ne pas comprendre la nature du « moi » à l’âge numérique. L’existence même de nos libertés et de la démocratie en dépend.
Nous sommes (et nous le sommes depuis un moment maintenant) des organismes cybernétiques.
Nous devons résister de toutes nos forces à toute tentative de réduire les personnes à des propriétés.

En cela, je ne veux pas faire référence à la représentation stéréotypée des cyborgs qui prévaut en science-fiction et dans laquelle la technologie se mélange aux tissus humains. Je propose plutôt une définition plus générale dans laquelle le terme s’applique à toute extension de notre esprit et de notre moi biologique par la technologie. Bien que les implants technologiques soient certainement réalisables, possibles et avérés, le principal moyen par lequel nous amplifions aujourd’hui notre moi avec la technologie, ce n’est pas par des implants mais par des explants.

Nous sommes des êtres fragmentés ; la somme de nos différents aspects tels que contenus dans nos êtres biologiques aussi bien que dans la myriade de technologies que nous utilisons pour étendre nos capacités biologiques.

Nous devons protéger par voie constitutionnelle la dignité et le caractère sacro-saint du moi étendu.

 

Une fois que nous avons compris cela, il s’ensuit que nous devons étendre les protections du moi au-delà de nos limites biologiques pour y inclure toutes ces technologies qui servent à nous prolonger. Par conséquent, toute tentative par des tierces parties de posséder, contrôler et utiliser ces technologies comme une marchandise est une tentative de posséder, contrôler et monétiser les éléments constitutionnels des individus comme des marchandises. Pour faire court, c’est une tentative de posséder, contrôler et utiliser les êtres humains comme des marchandises.

Inutile de dire que nous devons résister avec la plus grande vigueur à toute tentative de réduire les êtres humains à de la marchandise. Car ne pas le faire, c’est donner notre consentement tacite à une nouvelle servitude : une servitude qui ne fait pas commerce des aspects biologiques des êtres humains mais de leurs paramètres numériques. Les deux, bien sûr, n’existent pas séparément et ne sont pas réellement séparables lorsque la manipulation de l’un affecte nécessairement l’autre.

Au-delà du capitalisme de surveillance

À partir du moment où nous comprenons que notre relation à la technologie n’est pas une relation maître/esclave mais une relation organisme cybernétique/organe ; à partir du moment où nous comprenons que nous étendons notre moi par la technologie et que notre technologie et nos données font partie des limites de notre moi, alors nous devons nous battre pour que légalement les protections constitutionnelles du moi que nous avons gravées dans la Déclaration universelle des droits de l’homme et mises en application dans la myriade des législations nationales soient étendues à la protection du moi en tant qu’être cybernétique.

Il s’ensuit également que toute tentative de violation des limites de ce moi doit être considérée comme une attaque du moi cybernétique. C’est précisément cette violation qui constitue aujourd’hui le modèle économique quotidien de Facebook, Google et des majors de la technologie de la Sillicon Valley. Dans ce modèle, que Shoshana Zuboff appelle le capitalisme de surveillance, ce que nous avons perdu, c’est notre souveraineté individuelle. Les personnes sont à nouveau redevenues des possessions, bien que sous forme numérique et non biologique.

Pour contrer cela, nous devons construire une nouvelle infrastructure pour permettre aux personnes de regagner cette souveraineté individuelle. Ces aspects de l’infrastructure qui concernent le monde qui nous entoure doivent appartenir aux biens communs et les aspects qui concernent les gens – qui constituent les organes de notre être cybernétique – doivent être détenus et contrôlés par les individus eux-mêmes.

Ainsi, par exemple, l’architecture d’une ville intelligente et les données sur le monde qui nous entoure (les données sur notre environnement) doivent appartenir aux biens communs, tandis que votre voiture intelligente, votre smartphone, votre montre connectée, votre peluche intelligente, etc. et les données qu’ils collectent (les données sur les individus) doivent rester votre propriété.

Pour un Internet des individus

Imaginez un monde où chacun possède son propre espace sur Internet, fondé sur les biens communs. Cela représente un espace privé (un organe de notre être cybernétique) auquel nos appareils dits intelligents (qui sont aussi des organes), peuvent se connecter.

Au lieu d’envisager cet espace comme un nuage personnel, nous devons le considérer comme un nœud particulier, permanent, dans une infrastructure de pair à pair dans laquelle nos appareils divers (nos organes) se connectent les uns aux autres. En pratique, ce nœud permanent est utilisé pour garantir la possibilité de trouver la localisation (à l’origine en utilisant des noms de domaine) et la disponibilité (car il est hébergé/toujours en service) tandis que nous passerons de l’architecture client/serveur du Web actuel à l’architecture de pair à pair de la prochaine génération d’Internet.

Chacun a son propre espace sur Internet, auquel tous ses objets se connectent.

Un Internet des individus

L’infrastructure que nous construirons doit être fondée sur les biens communs, appartenir aux biens communs et être interopérable. Les services eux-mêmes doivent être construits et hébergés par une pléthore d’organisations individuelles, non par des gouvernements ou par des entreprises gigantesques, travaillant avec des protocoles interopérables et en concurrence pour apporter à ceux qu’elles servent le meilleur service possible. Ce n’est pas un hasard : ce champ sévèrement limité du pouvoir des entreprises résume l’intégralité de leur rôle dans une démocratie telle que je la conçois.

L’unique but d’une entreprise devrait être de rivaliser avec d’autres organisations pour fournir aux personnes qu’elles servent le meilleur service possible. Cela contraste radicalement avec les énormes dispositifs que les entreprises utilisent aujourd’hui pour attirer les individus (qu’ils appellent des « utilisateurs ») sous de faux prétextes (des services gratuits à l’intérieur desquels ils deviennent les produits destinés à la vente) dans le seul but de les rendre dépendants, de les piéger et de les enfermer dans des technologies propriétaires, en faire l’élevage, manipuler leur comportement et les exploiter pour en tirer un bénéfice financier et politique.

Dans l’entreprenocratie d’aujourd’hui, nous – les individus – sommes au service des entreprises. Dans la démocratie de demain, les entreprises devront être à notre service.

Les fournisseurs de services doivent, naturellement, être libres d’étendre les fonctionnalités du système tant qu’ils partagent les améliorations en les remettant dans les biens communs (« partage à l’identique »), évitant ainsi le verrouillage. Afin de fournir des services au-dessus et au-delà des services de base fondés sur les biens communs, les organisations individuelles doivent leur attribuer un prix et faire payer les services selon leur valeur ajoutée. De cette manière, nous pouvons construire une économie saine basée sur la compétition reposant sur un socle éthiquement sain à la place du système de monopoles que nous rencontrons aujourd’hui reposant sur une base éthiquement pourrie. Nous devons le faire sans compliquer le système tout entier dans une bureaucratie gouvernementale compliquée qui étoufferait l’expérimentation, la compétition et l’évolution décentralisée et organique du système.

Une économie saine fondée sur un base éthique

 

Interopérabilité, technologies libres avec des licences « partage à l’identique », architecture de pair à pair (par opposition à une architecture client/serveur), et un cœur fondé sur les biens communs : tels sont les garde-fous fondamentaux pour empêcher le nouveau système de se dégrader en une nouvelle version du Web de surveillance monopolistique, tel que nous connaissons aujourd’hui. C’est notre manière d’éviter les économies d’échelle et de rompre la boucle de rétroaction entre l’accumulation d’informations et la richesse qui est le moteur principal du capitalisme de la surveillance.

Pour être tout à fait clair, nous ne parlons pas d’un système qui peut s’épanouir sous le diktat du dernier round d’un capitalisme de surveillance. C’est un système néanmoins, qui peut être construit dans les conditions actuelles pour agir comme un pont entre le statu quo et un monde post-capitaliste durable.

Construire le monde dans lequel vous voulez vivre

Dans un discours que j’ai tenu récemment lors d’un événement de la Commission européenne à Rome, je disais aux auditeurs que nous devions « construire le monde dans lequel nous voulons vivre ». Pour moi, ce n’est pas un monde détenu et contrôlé par une poignée d’oligarques de la Silicon Valley. C’est un monde avec des biens communs sains, dans lequel – en tant que communauté – nous possédons et contrôlons collectivement ces aspects de notre existence qui nous appartiennent à tous, et dans lequel aussi — en tant qu’individus — nous sommes maîtres et avons le contrôle des aspects de notre existence qui n’appartiennent qu’à nous.

Imaginez un monde où vous et ceux que vous aimez disposeraient d’une capacité d’action démocratique ; un monde où nous bénéficierions tous d’un bien-être de base, de droits et de libertés favorables à notre dignité d’êtres cybernétiques. Imaginez un monde durable libéré de l’avidité destructrice et à court terme du capitalisme et dans lequel nous ne récompenserions plus les sociopathes lorsqu’ils trouvent des moyens encore plus impitoyables et destructeurs d’accumuler les richesses et la puissance aux dépens des autres. Imaginez un monde libre, soustrait (non plus soumis) à la boucle de rétroaction de la peur fabriquée et de la surveillance omniprésente qui nous entraîne de plus en plus profondément dans un nouveau vortex du fascisme. Imaginez un monde dans lequel nous nous octroierions la grâce d’une existence intellectuellement riche où nous serions libres d’explorer le potentiel de notre espèce parmi les étoiles.
Tel est le monde pour lequel je me lève chaque jour afin d’y travailler. Non par charité. Non pas parce que je suis un philanthrope. En fait sans aucune autre raison que celle-ci : c’est le monde dans lequel je veux vivre.

 – – –

Aral Balkan est un militant, concepteur et développeur. Il détient 1/3 de Ind.ie, une petite entreprise sociale qui travaille pour la justice sociale à l’ère du numérique.




Un peu d’hygiène numérique

Les quelques conseils qui suivent sont élémentaires et relèvent du bon sens plus que de la technique. Ils doivent cependant être répétés sans cesse tant il nous est facile de passer outre et de négliger ce qui peut pourtant nous rendre un fier service…

Saviez-vous que Mozilla dispose d’une équipe et d’un site Internet Citizen qui publie de semaine en semaine des conseils pour que chacun puisse agir et « Protéger la plus vaste ressource globale partagée » ? C’est sur ce portail que j’ai choisi l’article de M.J. Kelly, à la suite duquel vous trouverez quelques pistes pour aller plus loin. Mais avant d’installer un VPN, de chiffrer notre disque dur ou de créer un nœud Tor, si nous commencions par sécuriser nos mots de passe ?

 

Devez-vous vraiment masquer votre webcam ?

Source : Should you cover your webcam?

par M.J. Kelly

mjkelly2Lorsque les médias nous ont révélé que des personnalités comme le PDG de Facebook Mark Zuckerberg et le directeur du FBI James Comey masquaient leurs webcams, nous avons été amenés à nous demander si nous ne devrions pas tous en faire autant. Mettre un post-it ou un bout de sparadrap sur la caméra peut vous donner l’impression que vous gardez le contrôle en vous protégeant contre l’espionnage d’un pirate. C’est vrai, tant que votre webcam est masquée, on ne peut pas vous voir, mais est-ce une protection efficace pour votre sécurité ?

Marshall Erwin, responsable du département Vie privée et confidentialité chez Mozilla, répond : « — pas tant que ça… »

Masquer votre webcam pourrait en réalité aggraver la situation, précise Erwin. Les pirates pourraient encore vous écouter en utilisant le microphone, par exemple. Si vous avez masqué la caméra et ne voyez pas le voyant lumineux à côté de la lentille, vous ne saurez pas que le pirate a activé la caméra et vous écoute.

Erwin souligne également que votre webcam peut être compromise par d’autres moyens, comme le piratage des appels vidéo, appelé piggybacking(1). Masquer votre webcam n’est pas une défense parfaite.

newsletter_03_bandaid_1-0_blog
Un bout de sparadrap, pourquoi pas, mais…

Avant de la débrancher carrément, il existe de meilleures solutions que de lui coller un pansement ou de la jeter à la poubelle. Vous pouvez faire preuve d’astuce et vous protéger des intrusions de sécurité avant qu’elles ne surviennent

Voici quoi faire :

  • Choisissez des mots de passe forts. Que ce soit pour votre box chez vous ou pour vos comptes sur les réseaux sociaux, choisir des mots de passe robustes est votre meilleure protection contre toutes sortes de menaces sur le Web. C’est avec de bonnes pratiques de sécurité comme celle-là qu’il sera plus difficile de compromettre les appareils que vous utilisez, au passage votre webcam sera protégée elle aussi.
  • Méfiez-vous des liens. Des délinquants utilisent toute sortes d’astuces pour accéder à vos ordinateurs, Ils vous envoient entre autres des liens qui ont l’air inoffensifs. Ils recèlent en réalité des logiciels malveillants ou des virus qui sont ensuite les vecteurs de corruption de votre ordinateur. Si un lien ou un téléchargement ne vous semble pas tout à fait sûr, il ne l’est probablement pas. Vérifiez que tous les logiciels que vous installez proviennent de sources fiables et ne cliquez pas à tout-va sur des ressources qui paraissent vaguement suspectes, même si vous pensez en connaître l’origine.
  • Installez un système de sécurité. Les logiciels antivirus ne vous protégeront pas contre toutes les menaces mais c’est un bon début. Si vous installez un dispositif de sécurité, maintenez-le à jour et utilisez-le pour analyser régulièrement la sécurité de vos appareils. Des entreprises spécialisées gagnent leur vie en combattant les menaces, pour que vous n’ayez pas à le faire.
  • Faites appel à un spécialiste. Si vous pensez que votre webcam a été compromise, c’est-à-dire piratée, vérifiez avec un professionnel expérimenté en informatique pour savoir comment faire. Soyez conscient-e qu’il va vous falloir déployer beaucoup de patience pour que votre appareil soit remis en état.

En définitive, vous n’avez pas vraiment de raisons d’avoir peur d’utiliser des webcams. Elles ne représentent qu’un petit élément parmi une foule de technologies web qui rendent Internet dynamique et plaisant. Restez conscient-e de la possibilité d’avoir une webcam piratée, mais faites preuve de bon sens. Mettez un cache sur votre webcam (une gommette, un postit™, un autocollant avec un chat…) si ça vous fait plaisir, mais ne vous figurez pas que vous tenez là une solution radicale.

Efforcez-vous surtout d’agir en citoyen.ne du numérique avisé.e et conscient.e de sa sécurité en ligne, que la caméra soit ou non activée.

Vous voudrez sûrement aller plus loin :

  • D’autres conseils et astuces pour maîtriser la confidentialité de vos données personnelles, sur le site de Mozilla
  • Le livre //:Surveillance de Tristan Nitot qui conjugue de façon accessible à tous analyse des risques et recommandations utiles
  • L’excellent petit Guide d’hygiène numérique (lien direct vers le .pdf) de l’ami Genma, qui ne demande qu’à être complété ou amélioré sur le Framagit.

 

(1) Voyez l’entrée Piggybacking du glossaire en français du site panoptinet.com