D’autres technologies pour répondre à l’urgence de la personne ?

« Ce dont nous avons besoin, c’est le contraire de la Big Tech. Nous avons besoin de Small Tech – des outils de tous les jours conçus pour augmenter le bien-être humain, et non les profits des entreprises. »

Ce n’est pas une théorie complotiste : le profilage et la vente de données privées font, depuis des années, partie intégrante du modèle économique de la plupart des entreprises du numérique. Dans cet article traduit par Framalang, Aral Balkan (auquel nous faisons régulièrement écho) suggère qu’il est urgent de s’éloigner de ce modèle qui repose sur les résultats financiers pour gagner en indépendance et explique pourquoi c’est important pour chacun d’entre nous.

 

Article original : In 2020 and beyond, the battle to save personhood and democracy requires a radical overhaul of mainstream technology

Traduction Framalang : FranBAG, goofy, wisi_eu, gangsoleil, Khrys – Mise en forme :

En 2020 et au-delà, la bataille pour sauver l’identité individuelle et la démocratie exigera une révision radicale des technologies dominantes

par Aral Balkan

Un jeune garçon pilotant un canot sur un lac, durant les grands incendies australiens. Crédit photo: Allison Marion.

 

Alors que nous entrons dans une nouvelle décennie, l’humanité est confrontée à plusieurs urgences existentielles :

  1. L’urgence climatique1
  2. L’urgence démocratique
  3. L’urgence de la personne

Grâce à Greta Thunberg, nous parlons sans aucun doute de la première. La question de savoir si nous allons vraiment faire quelque chose à ce sujet, bien sûr, fait l’objet d’un débat.2

De même, grâce à la montée de l’extrême droite dans le monde entier sous la forme de (entre autres) Trump aux États-Unis, Johnson au Royaume-Uni, Bolsonaro au Brésil, Orban en Hongrie et Erdoğan en Turquie, nous parlons également de la seconde, y compris du rôle de la propagande (ou « infox ») et des médias sociaux dans sa propagation.

Celle sur laquelle nous sommes les plus désemparé·e·s et partagé·e·s, c’est la troisième, même si toutes les autres en découlent et en sont les symptômes. C’est l’urgence sans nom. Enfin, jusqu’à présent.

L’urgence de la personne

On ne peut pas comprendre « l’urgence de la personne » sans comprendre le rôle que la technologie de réseau et numérique grand public joue dans sa perpétuation.

Votre télé ne vous regardait pas, YouTube si.

La technologie traditionnelle – non numérique, pas en réseau – était un moyen de diffusion à sens unique. C’est la seule chose qu’un livre imprimé sur la presse Gutenberg et votre téléviseur analogique avaient en commun.

Autrefois, quand vous lisiez un journal, le journal ne vous lisait pas aussi. Lorsque vous regardiez la télévision, votre téléviseur ne vous regardait pas aussi (à moins que vous n’ayez spécifiquement permis à une société de mesure d’audience, comme Nielsen, d’attacher un audimètre à votre téléviseur).

Aujourd’hui, lorsque vous lisez le journal The Guardian en ligne, The Guardian – et plus de deux douzaines d’autres parties tierces, y compris la Nielsen susmentionnée – vous lit également. Quand vous regardez YouTube, YouTube vous regarde aussi.

Il ne s’agit pas d’une théorie de la conspiration farfelue, mais simplement du modèle d’affaires de la technologie actuelle. J’appelle ce modèle d’affaires « l’élevage d’êtres humains ». C’est une partie du système socio-économique, dont nous faisons partie, que Shoshana Zuboff appelle le capitalisme de surveillance.3

Et pis encore : Alphabet Inc, qui possède Google et YouTube, ne se contente pas de vous observer lorsque vous utilisez un de leurs services, mais vous suit également sur le Web lorsque vous allez de site en site. À lui seul, Google a les yeux sur 70 à 80 % du Web.
Mais ils ne s’arrêtent pas là non plus. Les exploitants d’êtres humains achètent également des données auprès de courtiers en données, partagent ces données avec d’autres exploitants et savent même quand vous utilisez votre carte de crédit dans les magasins ayant pignon sur rue. Et ils combinent toutes ces informations pour créer des profils de vous-même, constamment analysés, mis à jour et améliorés.

Nous pouvons considérer ces profils comme des simulations de nous-mêmes. Ils contiennent des aspects de nous-mêmes. Ils peuvent être (et sont) utilisés comme des approximations de nous-mêmes. Ils contiennent des informations extrêmement sensibles et intimes sur nous. Mais nous ne les possédons pas, ce sont les exploitants qui les possèdent.

Il n’est pas exagéré de dire qu’au sein de ce système, nous ne sommes pas en pleine possession de nous-mêmes. Dans un tel système, où même nos pensées risquent d’être lues par des entreprises, notre identité et le concept même d’autodétermination sont mis en danger.

Nous sommes sur le point de régresser du statut d’être humain à celui de propriété, piratés par une porte dérobée numérique et en réseau, dont nous continuons à nier l’existence à nos risques et périls. Les conditions préalables à une société libre sont soumises à notre compréhension de cette réalité fondamentale.
Si nous nous prolongeons en utilisant la technologie, nous devons étendre le champ d’application légal des droits de l’homme pour inclure ce « Moi » prolongé.

Si nous ne pouvons définir correctement les limites d’une personne, comment pouvons-nous espérer protéger les personnes ou l’identité d’une personne à l’ère des réseaux numériques ?

Aujourd’hui, nous sommes des êtres fragmentés. Les limites de notre être ne s’arrêtent pas à nos frontières biologiques. Certains aspects de notre être vivent sur des morceaux de silicium qui peuvent se trouver à des milliers de kilomètres de nous.

Il est impératif que nous reconnaissions que les limites du moi à l’ère des réseaux numériques ont transcendé les limites biologiques de nos corps physiques et que cette nouvelle limite – le « Moi » prolongé ; la totalité fragmentée du moi – constitue notre nouvelle peau numérique et que son intégrité doit être protégée par les droits de l’homme.

Si nous ne faisons pas cela, nous sommes condamné·e·s à nous agiter à la surface du problème, en apportant ce qui n’est rien d’autre que des changements cosmétiques à un système qui évolue rapidement vers un nouveau type d’esclavage.

C’est l’urgence de la personne.

Un remaniement radical de la technologie grand public

Si nous voulons nous attaquer à l’urgence de la personne, il ne faudra rien de moins qu’un remaniement radical des technologies grand public.

Nous devons d’abord comprendre que si réglementer les exploitants d’humains et les capitalistes de la surveillance est important pour réduire leurs préjudices, cette réglementation constitue une lutte difficile contre la corruption institutionnelle et n’entraînera pas, par elle-même, l’émergence miraculeuse d’une infrastructure technologique radicalement différente. Et cette dernière est la seule chose qui puisse s’attaquer à l’urgence de l’identité humaine.

Imaginez un monde différent.

Faites-moi le plaisir d’imaginer ceci une seconde : disons que votre nom est Jane Smith et que je veux vous parler. Je vais sur jane.smith.net.eu et je demande à vous suivre. Qui suis-je ? Je suis aral.balkan.net.eu. Vous me permettez de vous suivre et nous commençons à discuter… en privé.

Imaginez encore que nous puissions créer des groupes – peut-être pour l’école où vont nos enfants ou pour notre quartier. Dans un tel système, nous possédons et contrôlons tou·te·s notre propre espace sur Internet. Nous pouvons faire toutes les choses que vous pouvez faire sur Facebook aujourd’hui, tout aussi facilement, mais sans Facebook au milieu pour nous surveiller et nous exploiter.

Ce dont nous avons besoin, c’est d’un système en pair à pair qui établisse une passerelle avec le réseau mondial existant.

Ce dont nous avons besoin, c’est le contraire de la « Big Tech » (industrie des technologies). Nous avons besoin de « Small Tech » (technologie à petite échelle) – des outils de tous les jours pour les gens ordinaires, conçus pour augmenter le bien-être humain, et non les profits des entreprises.

Étapes concrètes

À la Small Technology Foundation, Laura et moi avons déjà commencé à construire certains des éléments fondamentaux d’un pont possible entre le capitalisme de surveillance et un avenir radicalement démocratique, entre pairs. Et nous continuerons à travailler sur les autres composantes cette année et au-delà. Mais il y a des mesures pratiques que nous pouvons tou·te·s prendre pour aider à faire avancer les choses dans cette direction.

Voici quelques suggestions pratiques pour différents groupes :

Les gens ordinaires

1. Ne vous culpabilisez pas, vous êtes les victimes. Quand 99,99999 % de tous les investissements technologiques vont aux « exploitants d’humains », ne laissez personne vous dire que vous devriez vous sentir mal d’avoir été obligé·e·s d’utiliser leurs services par manque d’alternatives.

2. Cela dit, il existe des alternatives. Cherchez-les. Utilisez-les. Soutenez les gens qui les fabriquent.

3. Prenez conscience que ce problème existe. Appelez des responsables et défendez ceux qui le font. À tout le moins, n’écartez pas les préoccupations et les efforts de ceux et celles d’entre nous qui tentent de faire quelque chose à ce sujet.

Les développeurs

1. Cessez d’intégrer les dispositifs de surveillance d’entreprises comme Google et Facebook dans vos sites Web et vos applications. Cessez d’exposer les gens qui utilisent vos services au capitalisme de surveillance.

2. Commencez à rechercher d’autres moyens de financer et de construire des technologies qui ne suivent pas le modèle toxique de la Silicon Valley.

3. Laissez tomber la « croissance » comme mesure de votre succès. Construisez des outils que les individus possèdent et contrôlent, et non votre entreprise ou organisation. Créez des applications Web pour utilisateur unique (dont chaque personne sera l’unique propriétaire). Soutenez des plateformes libres (comme dans liberté) et décentralisées (sans nager dans les eaux troubles de la blockchain).

L’Union Européenne

1. Cessez d’investir dans les start-ups et d’agir comme un Département de recherche et développement officieux de la Silicon Valley et investissez plutôt dans les « stayups » (entreprises durables, PME ou micro-entreprises matures).

2. Créez un domaine de premier niveau (DPN) non commercial ouvert à tous, où chacun peut enregistrer un nom de domaine (avec un certificat Let’s Encrypt automatique) pour un coût nul avec un seul « appel API ».

3. Appuyez-vous sur l’étape précédente pour offrir à chaque citoyen·ne de l’Union Européenne, payé par l’argent du contribuable européen, un serveur privé virtuel de base, doté de ressources de base pour héberger un nœud actif 24h/24 dans un système pair-à-pair qui le détacherait des Google et des Facebook du monde entier et créerait de nouvelles possibilités pour les gens de communiquer en privé ainsi que d’exprimer leur volonté politique de manière décentralisée.

Et, généralement, il est alors temps pour chacun·e d’entre nous de choisir un camp.

Le camp que vous choisissez décidera si nous vivons en tant que personnes ou en tant que produits. Le côté que vous choisissez décidera si nous vivons dans une démocratie ou sous le capitalisme.

Démocratie ou capitalisme ? Choisissez.

Si, comme moi, vous avez grandi dans les années 80, vous avez probablement accepté sans réfléchir la maxime néolibérale selon laquelle la démocratie et le capitalisme vont de pair. C’est l’un des plus grands mensonges jamais propagés. La démocratie et le capitalisme sont diamétralement opposés.

Vous ne pouvez pas avoir une démocratie fonctionnelle et des milliardaires et des intérêts corporatifs de billions de dollars et la machinerie de désinformation et d’exploitation des Big Tech de la Silicon Valley. Ce que nous voyons, c’est le choc du capitalisme et de la démocratie, et le capitalisme est en train de gagner.

Avons-nous déjà passé ce tournant ? Je ne sais pas. Peut-être. Mais on ne peut pas penser comme ça.

Personnellement, je vais continuer à travailler pour apporter des changements là où je pense pouvoir être efficace : en créant une infrastructure technologique alternative pour soutenir les libertés individuelles et la démocratie.

L’humanité a déjà mis en place l’infrastructure du techno-fascisme. Nous avons déjà créé (et nous sommes toujours en train de créer) des éléments panoptiques. Tout ce que les fascistes ont à faire, c’est d’emménager et de prendre les commandes. Et ils le feront démocratiquement, avant de détruire la démocratie, tout comme Hitler l’a fait.

Et si vous pensez que «les années 30 et 40 c’était quelque chose», rappelez-vous que les outils les plus avancés pour amplifier les idéologies destructrices de l’époque étaient moins puissants que les ordinateurs que vous avez dans vos poches aujourd’hui. Aujourd’hui, nous avons le « Machine Learning » (Apprentissage machine) et sommes sur le point de débloquer l’informatique quantique.

Nous devons nous assurer que les années 2030 ne reproduisent pas les années 1930. Car nos systèmes centralisés avancés de saisie, de classification et de prévision des données, plus une centaine d’années d’augmentation exponentielle de la puissance de traitement (notez que je n’utilise pas le mot « progrès »), signifient que les années 2030 seront exponentiellement pires.

Qui que vous soyez, où que vous soyez, nous avons un ennemi commun : l’Internationale nationaliste. Les problèmes de notre temps dépassent les frontières nationales. Les solutions le doivent également. Les systèmes que nous construisons doivent être à la fois locaux et mondiaux. Le réseau que nous devons construire est un réseau de solidarité.

Nous avons créé le présent. Nous allons créer le futur. Travaillons ensemble pour faire en sorte que cet avenir soit celui dans lequel nous voulons vivre nous-mêmes.


Discours d’Aral Balkan au Parlement européen, fin 2019, lors de la rencontre sur l’avenir de la réglementation de l’Internet.  Merci à la Quadrature du Net et à sa chaîne PeerTube.

 





Droits d’auteurs : la Commission européenne victime de l’illusion technologique

De communications en directives, l’incurie de la Commission européenne dans le domaine de la technologie et des contenus en ligne apparaît de plus en plus clairement.

Faisant fi des avis des experts, voire des rapports qu’elle a elle-même commandés, la Commission s’entête à proposer des solutions imparfaites et simplistes à des problèmes complexes. Une de ses dernières initiatives le prouve une fois de plus et ne fait que rajouter à l’inquiétude de tous les défenseurs des libertés numériques et de la vie privée.

Filtres de publication, droit d’auteur et poudre de perlimpinpin

Par Glyn Moody, source : Copybuzz
Traduction à 20 mains par simon, satanas_g, QuoiQue, mo, FranBAG, Edgar Lori, goofy, Mika et dodosan

Image par Stromcarlson.

Le 28 septembre, la Commission européenne a dévoilé une initiative de grande ampleur pour s’attaquer au « contenu illicite en ligne ». Comme c’est souvent le cas lorsque des politiciens veulent avoir l’air de « faire quelque chose » au sujet du terrorisme, il y a beaucoup de mauvaises idées.

Le cœur de cette initiative est un plan pour encourager les plateformes en ligne à renforcer « la prévention, la détection et la suppression proactives des contenus illicites en ligne incitant à la haine, à la violence et au terrorisme ».  De manière insistante, ces idées sont présentées comme des « orientations et des principes ». C’est parce que tout repose sur le libre consentement. Sauf que la Commission a clairement dit que si ce système volontaire n’est pas adopté par des entreprises comme Facebook ou Google, elle promulguera de nouvelles lois pour leur forcer la main. La Commission est pressée de voir les résultats de ces efforts volontaires, et des projets de loi pourraient être mis sur la table dès mai 2018.

Une de ces mauvaises idées imposerait aux plateformes en ligne de travailler conjointement avec des signaleurs de confiance – « des entités spécialisées disposant d’une expertise en matière de contenu illicite ». Ils peuvent bien être experts, mais ils ne sont pas juges, ce qui implique que la Commission voudrait que Facebook et Google mettent des contenus hors ligne sans avoir besoin de se soucier de ce qu’un juge considérerait réellement comme illégal.

Mais la pire idée, et elle apparaît plusieurs fois dans les derniers plans de la Commission, est l’utilisation omniprésente et systématique de filtres de publication. Dans un document de 20 pages détaillant la proposition intitulée « Communication sur la suppression des contenus illicites en ligne – Vers une responsabilité renforcée des plateformes en ligne » l’accent est mis sur « l’utilisation des technologies pour détecter les contenus illicites ». En particulier, l’utilisation et le développement futur de la détection automatique et des technologies de filtrage sont encouragés.

Une des principales raisons pour lesquelles la Commission européenne place tant d’espoirs dans l’automatisation pour résoudre les problèmes de contenus illégaux est qu’elle croit apparemment que « dans le domaine du droit d’auteur, la reconnaissance automatique des contenus s’est avérée être un outil efficace depuis de nombreuses années ». Sauf que cela n’est pas vrai. L’eurodéputée Julia Reda (Parti pirate) a écrit un article de blog instructif qui détaille neuf façons bien distinctes dont les filtres de publication échouent. Ce faisant, ils causent de nombreux dégâts collatéraux, particulièrement en matière de droits fondamentaux.

Une réponse à cette démonstration fracassante de l’échec des filtres de publication est de concéder qu’ils sont imparfaits, mais dire ceci montre simplement que davantage de recherches sont nécessaires pour les améliorer. C’est l’argument classique du cherchez plus fort qui est souvent utilisé pour défendre la création de portes dérobées dans les logiciels de chiffrement. Bien que les experts en sécurité expliquent unanimement et de façon répétée qu’il n’est pas possible de créer une vulnérabilité qui soit utilisable seulement par les autorités et qui ne soit pas vulnérable aux attaques de criminels ou d’acteurs étatiques malveillants, les gouvernements persistent à croire qu’ils savent mieux que les experts, et que les entreprises devraient juste le faire. Et des vulnérabilités sont donc implémentées. Même si les gens qui comprennent le fonctionnement des filtres de publication expliquent patiemment qu’il est impossible de traduire l’extrême complexité du droit d’auteur dans les règles de filtrage pouvant être appliquées automatiquement et correctement, les autorités continuent de prôner ce supposé remède miracle.

Appelons cela le mirage de la « poudre de perlimpinpin numérique » – la croyance que l’on peut traiter tous les problèmes du monde réel avec de la technologie, et qu’ils seront résolus, juste comme ça. La Commission européenne est une grande adepte de cette poudre de perlimpinpin, comme le montre clairement sa demande de mettre en place des filtres de publication dans la directive sur le droit d’auteur et le nouveau cadre destiné à s’attaquer au contenu illégal. L’annonce de la semaine dernière est un signe inquiétant qu’elle est loin de comprendre que les filtres de publication ne sont pas une solution pratique pour la question du droit d’auteur en ligne, et qu’elle s’entête au contraire dans cette direction et l’étend désormais à d’autres domaines.

La Commission européenne est bien au courant que l’Article 15 de la directive sur le commerce électronique interdit explicitement aux États membres d’imposer « une obligation générale de surveiller les informations qu’ils transmettent ou stockent, ou une obligation générale de rechercher activement des faits ou des circonstances révélant des activités illicites » En mettant en avant la « responsabilité avancée des plateformes en ligne », comme le fait la première page de la communication du 29 septembre, la Commission semble souligner que sa nouvelle approche impose dans les faits une « obligation générale » à ces entreprises de filtrer tous les contenus mis en ligne qui correspondraient à une vaste gamme de « contenu illégal ». On imagine aisément la Cour de justice de l’Union européenne invalider toute tentative d’inscrire cette « responsabilité avancée » dans la loi.

Au-delà du fait qu’ils ne fonctionneront pas et qu’ils sont illégaux du fait de la directive sur le commerce électronique, il y a une autre raison pour laquelle les filtres de publication de l’article 13 devraient être abandonnés : il n’existe aucune preuve de leur nécessité. Tout comme la Commission européenne a joyeusement propagé l’idée fausse selon laquelle le filtrage automatique fonctionne, elle a aussi docilement accepté la rumeur selon laquelle les copies non autorisées d’œuvres soumises au droit d’auteur seraient un désastre pour l’industrie du droit d’auteur et les artistes.

Comme nous l’avons récemment appris par la publication tardive d’un rapport capital qui a coûté à la Commission européenne la somme princière de 369 871€, les faits montrent le contraire. Il est évident que la Commission a essayé d’enterrer sa propre analyse, payée par les citoyens européens, probablement parce que les résultats ne convenaient pas à son projet d’introduire des peines toujours plus fortes aux infractions au droit d’auteur. Comme l’admet le rapport, globalement, « les résultats ne montrent pas de preuves statistiques solides d’une modification des ventes due au non-respect du droit d’auteur en ligne ».

Deux domaines spécifiques ont été touchés par le partage non autorisé : les nouveaux films ont été affectés défavorablement, tandis que pour les jeux, la consommation illégale a mené à plus de ventes légales. C’est un signe de l’approche biaisée de la Commission européenne sur ce sujet : ses économistes ont publié une synthèse à propos des effets négatifs du téléchargement sur les films, mais ont omis de mentionner l’effet positif qu’il avait sur les jeux.

Cette mauvaise foi rend encore plus irritant l’acharnement de la Commission à vouloir trouver une solution technologique illusoire à un problème inexistant. Si elle avait le courage d’admettre la vérité sur la nature non problématique du partage non autorisé d’œuvres soumises au droit d’auteur, elle n’aurait pas à promouvoir des propositions stériles comme les filtres de publication dont on sait qu’ils nuiront immensément au monde en ligne ainsi qu’au Marché unique numérique de l’UE.