Encourager ou criminaliser le jailbreaking ? Un choix de société !

FHKE - CC by-saDrôle de monde que celui dans lequel nous vivons et qui entrave à tous les étages le partage et le bidouillage.

Parce que déverrouiller son iPhone ou son Android n’est pas qu’un jeu gratuit pour hackers malfaisants. Il permet, mais si, mais si, de favoriser l’innovation, d’améliorer la sécurité et d’assurer une meilleure protection de ses données personnelles.

Cela répond également à la légitime curiosité d’aller regarder sous le capot pour comprendre comment les choses fonctionnent[1].

Messieurs les censeurs, écoutez l’appel de l’Electronic Frontier Foundation, et cessez de criminaliser des pratiques utiles à la communauté. Et ne nous y trompons pas, derrière ce petit problème technique se cache (n’ayons pas peur des mots) un véritable choix de société.

Pourquoi Apple, Sony, Amazon, Microsoft et les autres devraient encourager le jailbreaking

Why Apple (and Sony, Amazon, Microsoft etc.) Should Support Jailbreaking

Trevor Timm – 2 décembre 2011 – EFF.org
(Traduction Framalang : Goofy, Clochix et Poupoul2)

Hier l’Electronic Frontier Foundation a demandé à l’administration du Copyright des États-Unis d’accorder une exemption au Digital Millenium Act en faveur du droit de « jailbreaker » les smartphones, les tablettes et les consoles de jeux vidéos. Ces exceptions visent à épargner aux utilisateurs tout souci légal qui pourraient les empêcher de faire tourner des applications et des systèmes d’exploitation qui ne sont pas approuvés par le fabricant de l’appareil. Elles amendent la section 1201 du DMCA qui interdit tout contournement de « mesure technique qui contrôle effectivement l’accès à une œuvre protégée à ce titre ».

En 2009, malgré les cris d’orfraie et la vive opposition d’Apple, l’EFF a obtenu du bureau du Copyright le droit pour les utilisateurs de déverrouiller les iPhones et autres smartphones. C’est en partie grâce à cette disposition légale qu’une communauté en ligne très active s’est constituée autour du jailbreaking pour perfectionner à un degré incommensurable l’innovation, la sécurité, la confidentialité sur ces appareils.

Pourquoi donc Apple et les autres fabricants s’opposeraient-ils à ce processus ? Voilà une question intéressante. Quand Apple a combattu la première fois le droit légal de jailbreaker, la firme a prétendu que cela nuirait à son modèle économique en ruinant sa rentabilité. Pourtant les profits d’Apple atteignent des records jamais atteints selon toutes les statistiques fiables.

En réalité, loin de nuire à des entreprises comme Apple, la communauté autour du jailbreaking finit souvent par leur rendre service, dans la mesure où Apple et d’autres fabricants finissent par adopter de nombreuses fonctionnalités qui avaient été exclues dans un premier temps. Faisons une petite rétrospective de tous le bénéfices du jailbreaking à la fois pour les industriels et les utilisateurs de smartphones, et voyons pourquoi cette pratique devrait être étendue aux tablettes et consoles de jeux vidéos comme le PlayStation 3, la Wii de Nintendo et la XBox 360.

Innovation

À tous égards, la communauté du jailbreaking a formidablement amélioré l’ergonomie des smartphones. Ses membres ont par exemple développé des applications, d’abord rejetées par Apple, qui permettait aux anciennes versions de l’iPhone d’enregistrer des vidéos. Les jailbreakers ont également été les premiers à réussir à configurer le clavier pour qu’il se connecte sans fil au smartphone. Apple a par la suite adopté chacune de ces fonctionnalités.

Ce processus d’imitation a été reproduit pour un tas d’autres innovations initiées par la communauté du jailbreaking, depuis la conception de l’interface utilisateur jusqu’à la gestion des applications sur le téléphone. Comme l’a remarqué David Kravets du magazine Wired, « parmi ces bidouillages on trouve les notifications qui se replient, l’accès direct à la caméra depuis l’écran d’accueil verrouillé et la synchronisation sans fil, pour n’en citer que quelques-uns ».

Sécurité

Les améliorations de la sécurité développées par la communauté des jailbreakers protègent les utilisateurs de smartphones quand le fabricant tarde à régler les problèmes de vulnérabilité ou les néglige carrément.

Quand on a découvert une faille de sécurité à l’ouverture d’un fichier PDF par le navigateur de l’iPhone, Apple ne s’est pas pressé pour régler le problème. Les utilisateurs qui ne voulaient pas attendre que le fabricant s’en occupe avaient une meilleure façon de se protéger : débrider leur appareil et installer un correctif « non autorisé » créé par un développeur indépendant.

Mais la débâcle de DigiNotar en 2011 est le meilleur exemple pour expliquer pourquoi il est si vital de pouvoir déverrouiller un téléphone. Jusqu’à une époque récente, DigiNotar était une autorité de certification — une organisation qui émet des certificats numériques utilisés pour authentifier et sécuriser les communications entre différents services en ligne, comme les transactions de cartes de crédit. Mais en septembre, elle a été piratée et a commencé à émettre des certificats frauduleux, qui ont permis à des utilisateurs mal intentionnés de compromettre des terminaux et des services. Les premières versions d’Android ne se mettaient pas à jour automatiquement, ne laissant aux utilisateurs avec d’anciens systèmes d’exploitation d’autre recours que de déverrouiller leur téléphone pour pouvoir se protéger.

Confidentialité

Alors que les préoccupations sur le respect de la vie privée par les terminaux mobiles augmentent, la communauté des « déverrouilleurs de téléphones » a aussi été vitale en rendant le respect de la vie privée plus sécurisé lorsque les fabricants ne s’en souciaient pas.

Les ouvreurs de prisons numériques ont été les premiers à introduire une application non autorisée sur l’iPhone qui masque les messages apparaissant automatiquement sur l’écran pour signaler qui est aux alentours. Les déverrouilleurs ont également créé une modification du logiciel pour empêcher la journalisation d’informations détaillées sur la localisation de l’iPhone à laquelle se livrait Apple sans y avoir été autorisée. De même, sur Android, une application non autorisée appelée LBE Privacy Guard permet aux utilisateurs de chercher et surveiller les données sensibles auxquelles des applications tierces pourraient essayer d’accéder. Mais ces applications protectrices de la vie privée ne sont accessibles qu’aux utilisateurs qui déverrouillent leur terminal.

La popularité des tablettes a explosé au cours des dernières années, et l’EFF veut que les utilisateurs de terminaux comme l’iPad et le Nook bénéficient également de ce dont ont profité les utilisateurs de smartphones au cours des trois dernières années.

Mais ce n’est pas tout, nous réclamons également une exemption pour les consoles de jeu vidéo.

Consoles de jeux vidéo

Les fabricants de consoles de jeu comme la PlayStation 3, la Xbox et la Wii de Nintendo limitent également le système d’exploitation de l’utilisateur, et les options des logiciels, même lorsque rien ne prouve que d’autres programmes violeraient le copyright. L’exception que nous réclamons permettrait aux utilisateurs d’exécuter le système de leur choix sur leurs consoles, aussi bien que des applications « maison » écrites par eux-mêmes.

Les consoles de jeu vidéo ont des processeurs puissants qui peuvent permettre aux gens de les utiliser comme des alternatives peu coûteuses aux PC de bureau. Des chercheurs, et même l’armée des EUA, ont transformé des grappes de PS3 en puissants supercalculateurs, à l’époque où Sony permettait l’installation de systèmes d’exploitation alternatifs. Mais Sony a supprimé cette possibilité avec une mise à jour du firmware en 2010, et les PS3 ne peuvent désormais plus faire tourner Linux sans être déverrouillées. En fait, plus tôt cette année, Sony avait été jusqu’à poursuivre quelques chercheurs qui avaient publié des informations sur des trous de sécurité qui permettraient aux gens d’installer et de faire tourner Linux sur leur PS3 personnelle. Nous espérons que l’exception que nous cherchons à obtenir énoncera clairement que les gens ont le droit de faire tourner le système d’exploitation et les applications de leur choix sur leur machine.

L’EFF adjure Apple, Sony et les autres de soutenir cette demande d’exemption au DMCA pour améliorer l’expérience des utilisateurs et garantir la sécurité et la confidentialité de leurs données personnelles.

Notes

[1] Crédit photo : FHKE (Creative Commons By-Sa)




L’ordinateur personnel est mort pour laisser place à des prisons dorées ?

Victoria Reay - CC byQu’est-ce que Framasoft, si ce n’est au départ avant tout un vaste service se proposant de mettre en relation les développeurs et les utilisateurs (que l’on souhaite toujours plus nombreux) de logiciels libres.

Un service d’autant plus pertinent que l’on peut facilement installer et tester les logiciels et que les développeurs (dont on n’entrave ni la création ni l’innovation) se trouvent disséminés un peu partout sur le Web.

Le problème c’est qu’aujourd’hui tout ce processus est remis en cause par le développement conjoint du cloud et des appareils mobiles (smartphones, tablettes…) à qui l’on demande de ne venir s’abreuver qu’à une seule source dûment contrôlée : la boutique d’applications, ou apps, Apple ou Google. Pire encore, ces plateformes fermées ne se contentent pas de proposer des applications « logiciel », elle offrent également des applications « contenu ». Et c’est toute l’information qui se trouve prisonnière du bon vouloir de quelques sociétés (américaines) qui détiennent alors un pouvoir potentiel exorbitant.

Même des ses rêves hégémoniques les plus fous, Microsoft n’aurait osé envisager une telle situation pour ses PC Windows qui, en comparaison, apparaissent tout d’un coup bien plus ouverts qu’il ne l’étaient une dizaine d’années auparavant[1].

Certains appellent cela le progrès et célèbrent avec ferveur et dévotion le génial Steve Jobs à l’occasion de son triste départ. D’autres ne doivent pas s’en laisser compter, parce que quand la trappe sera définitivement refermée, il sera trop tard…

Jonathan Zittrain est professeur de droit et d’informatique à Harvard et est l’auteur de The Future of the Internet and How to Stop It.

L’ordinateur personnel est mort

The Personal Computer Is Dead

Jonathan Zittrain – 30 novembre 2011 – TechnologyReview
(Traduction Framalang : Clochix et Goofy)

Le pouvoir migre rapidement des utilisateurs finaux et des développeurs de logiciels vers les vendeurs de systèmes d’exploitation.

Le PC est mort. Le nombre croissant de terminaux mobiles, légers et centré sur le cloud n’est pas qu’une mue dans la forme. Au contraire, nous sommes en présence d’un transfert de pouvoir sans précédent des utilisateurs finaux et des développeurs logiciels d’un côté vers les vendeurs de systèmes d’exploitation de l’autre — et même ceux qui conservent leur PC sont emportés par ce mouvement. C’est un peu pour le meilleur, et beaucoup pour le pire.

C’est une transformation de produits en services. Les applications que nous avions l’habitude d’acheter tous les deux ou trois ans — comme les systèmes d’exploitation — sont désormais en relation permanente avec le vendeur, tant pour les utilisateurs finaux que pour les développeurs de logiciels. J’avais décrit cette mutation, motivée par un désir d’une meilleure sécurité et de plus de confort, dans mon livre de 2008 Le futur de l’Internet — et comment l’arrêter.

Pendant des années, nous avons utilisé avec plaisir un moyen simple de créer des logiciels et de les partager ou de les vendre. Les gens achetaient des ordinateurs généralistes, des PC y compris ceux qu’on appelle Mac. Ces ordinateurs étaient livrés avec un système d’exploitation qui s’occupait des tâches de base. Tout le monde pouvait écrire et exécuter un logiciel pour un système d’exploitation donné, et c’est ainsi que sont apparus une suite sans fin de tableurs, traitements de texte, messageries instantanées, navigateurs Web, clients de messagerie et jeux. Ces logiciels allaient du sublime au ridicule et au dangereux — pour en décider il n’y avait d’autre arbitre que le bon goût et le bon sens de l’utilisateur, avec un peu d’aide de sites Web rédigés par des passionnés d’informatique et des logiciels antivirus (cela fonctionnait tant que l’antivirus n’était pas lui-même un malware, chose qui a eu tendance à devenir fâcheusement monnaie courante).

Choisir un système d’exploitation (ou OS), c’était aussi faire le choix des logiciels qui y étaient attachés. Windows plutôt que Mac signifiait opter sur le long terme entre différentes collections de logiciels. Même si parfois un développeur offrait des versions de son logiciel pour chaque OS, migrer d’un OS à un autre signifiait qu’il fallait racheter ce logiciel.

C’est une des raisons pour lesquelles nous avons fini par avoir un OS dominant ces deux dernières décennies. Les gens étaient sous Windows, ce qui poussait les développeurs de logiciels à coder pour Windows, ce qui incitait davantage de gens à acheter Windows, ce qui le rendait encore plus attirant pour les développeurs, et ainsi de suite. Dans les années 90, les gouvernements américains et européens se sont lancées dans une bataille contre la position dominante de Microsoft, bataille légendaire et pourtant facilement oubliable vue d’aujourd’hui. Leur principal reproche ? Microsoft a faussé la concurrence entre son propre navigateur, Internet Explorer, et son principal concurrent de l’époque, Netscape Navigator. Microsoft a procédé en imposant aux fabricants de PC de s’assurer qu’Internet Explorer serait prêt à être utilisé sur le bureau de Windows lorsque l’utilisateur déballerait son ordinateur et l’allumerait (la fameuse icône du « E bleu »). Des années de procédure et un dossier de trois kilomètres de long peuvent se résumer en un péché original : un fabricant de système d’exploitation avait excessivement favorisé ses propres applications.

Lorsque l’iPhone est arrivé sur le marché en 2007, sa conception était bien plus restrictive. Aucun code étranger n’était autorisé sur le téléphone, toutes les applications installées étaient issues d’Apple. On n’y a pas pris garde sur le moment car ça n’était qu’un téléphone et non un ordinateur, et les téléphones concurrents étaient tout autant verrouillés. Nous comptions sur les ordinateurs pour être des plateformes ouvertes et considérions ces téléphones comme de simples appareils, plus proches des postes de radio, des téléviseurs et des percolateurs.

Puis, en 2008, Apple a annoncé un kit de développement logiciel pour l’iPhone. Les développeurs tiers étaient invités à créer des logiciels pour le téléphone, de la même manière qu’ils l’avaient fait pendant des années avec Windows et Mac OS. Avec une grosse différence : les utilisateurs ne pouvaient installer un logiciel sur leur téléphone que s’il était disponible dans la boutique Apple d’applications pour iPhone. Les développeurs devaient montrer patte blanche et être accrédités par Apple. Ainsi chaque application se trouvait être contrôlée et filtrée selon les critères propres, flous et changeants d’Apple. Par exemple, les applications qui émulaient ou même amélioraient les propres applications d’Apple n’étaient pas autorisées. Le péché originel de Microsoft était devenu bien pire. Le problème n’était pas de savoir si on pouvait acheter un iPhone sans le navigateur Safari d’Apple. Il était qu’aucun autre navigateur ne serait autorisé (et s’il était, il ne s’agissait que d’une tolérance ponctuelle d’Apple). Sans oublier que pas moins de 30% du prix de chaque application vendue pour l’iPhone (et de de toutes les transactions effectuées grâce à l’application) vont dans les poches d’Apple.

Même Microsoft, connu pour ses logiciels privateurs, n’aurait pas osé prélever une taxe sur chaque bout de code écrit par d’autres pour Windows, mais peut-être n’était-ce dû qu’au fait qu’en l’absence de connexion fiable à Internet dans les années 90, il n’y avait aucun moyen réaliste de le faire en gérant les achats et les licences. Quinze ans plus tard, c’est exactement ce qu’Apple a fait avec la boutique d’applications pour iOS.

En 2008, on pouvait penser que cette situation n’était pas aussi inquiétante que le comportement de Microsoft à l’époque de la guerre des navigateurs. D’abord parce que la part d’Apple dans le marché des téléphones mobiles n’avait rien à voir avec la domination de Microsoft sur le marché des systèmes d’exploitation pour PC. Ensuite parce qu’on était passé d’un système totalement verrouillé en 2007 à un système partiellement ouvert aux développeurs extérieurs. De plus, bien qu’Apple rejetât de nombreuses applications pour n’importe quelle raison (et que certains développeurs étaient suffisament apeurés par le couperet qu’ils confessaient avoir peur de dire publiquement du mal d’Apple), dans les faits des centaines de milliers d’application passaient la barrière. Enfin, indépendamment de la volonté de contrôle d’Apple, ces restrictions avaient au moins quelques bonnes raisons sécuritaires sur le papier, au moment même où le nombre croissant de logiciels malveillants voyait le monde du PC Windows glisser de l’anarchie au chaos. Une mauvaise frappe sur le clavier ou un mauvais clic de souris pouvait livrer tout le contenu du PC à un lointain créateur de virus. Apple était déterminé à ce que cela n’arrive pas avec l’iPhone.

À la fin de 2008, il y avait à priori encore moins de raisons de s’inquiéter : la place de marché pour le système Android de Google avait été inaugurée (NdT : Android Market), créant de la compétition pour l’iPhone avec un modèle un peu moins paranoïaque de développement d’applications par des tiers. Les développeurs devaient toujours s’enregistrer pour proposer des logiciels via la place de marché, mais une fois qu’ils étaient enregistrés, ils pouvaient diffuser leur logiciel immédiatement, sans que Google les contrôle. Il y avait encore une taxe de 30% sur les ventes, et les applications qui ne respectaient pas les règles pouvaient être supprimées rétroactivement de la place de marché. Mais il y avait et il y a toujours une grosse soupape de sécurité : les développeurs pouvaient donner ou vendre leurs applications directement aux possesseurs de terminaux Android, sous passer par Android Market. S’ils n’aimaient pas les règles de la place de marché, cela ne signifiait pas qu’ils devaient renoncer à atteindre les utilisateurs d’Android. Aujourd’hui, la part de marché d’Android est nettement supérieure à celle de l’iPhone (c’est l’inverse pour les tablettes, actuellement trustée par l’iPad à 97% mais de nouvelles tablettes arrivent, comme le Kindle Fire d’Amazon basé sur Android et le roi peut rapidement être démis de son trône).

Avec cette évolution positive et ces réponses apportées entre 2007 et 2011, pourquoi devrions-nous alors nous inquiéter ?

La principale raison relève de l’effet boule de neige du modèle de l’iPhone. Le modèle de la boutique d’applications est revenu comme un boomerang sur le PC. On trouve à présent une telle boutique pour le Mac qui correspond à celles de l’iPhone et de l’iPad, et elle comporte les mêmes restrictions. Certaines, acceptées car jugées normales dans le cadre d’un téléphone mobile, semblent beaucoup moins familières dans le monde de l’ordinateur de bureau.

Par exemple, les logiciels dans la boutique pour Mac n’ont pas le droit de modifier l’apparence de l’environnement du Mac. (Ironique de la part d’une compagnie dont un précédent slogan incitait les gens à penser différemment). Les développeurs ne peuvent ainsi ajouter une icône pour leur application sur le bureau ou dans le dock sans demander la permission à l’utilisateur, ce qui est un extraordinaire écho à ce qui a valu des ennuis à Microsoft (bien que dans le cas de Microsoft le problème était d’interdire la suppression de l’icône d’Internet Explorer, mais jamais Microsoft n’a essayé d’empêcher l’ajout d’icônes d’autres applications, qu’elles soient installées par le constructeur du PC ou par l’utilisateur). Les développeurs ne peuvent pas développer de fonctionnalités déjà présentes dans la boutique. Ils ne peuvent pas diffuser leur logiciel sous une licence libre, car les termes de ces licences entrent en conflit avec ceux de la licence d’Apple.

Les restrictions de contenus sont des territoires encore inexplorés. Du haut de sa domination du marché Windows, Microsoft n’a eu aucun rôle dans le choix des logiciels qui pourraient ou ne pourraient pas s’exécuter sur ses machines, et encore moins son mot à dire pour autoriser le contenu de ces applications à voir la lumière de l’écran. L’éditorialiste dessinateur Mark Fiore, lauréat du Prix Pulitzer, a ainsi vu son application iPhone refusée car elle contenait du « contenu qui ridiculisait des personnalités publiques ». Fiore était suffisamment connu pour que ce refus provoque des froncements de sourcils, et Apple est revenue sur sa décision. Mais le fait que des applications doivent de manière routinière être approuvées masque à quel point la situation est extraordinaire : des entreprises de technologies ont entrepris d’approuver, un à un, tous les textes, les images et les sons que nous sommes autorisés à trouver et utiliser sur les portails que nous utilisons le plus souvent pour nous connecter au réseau mondial. Est-ce ainsi que nous souhaitons que la culture se diffuse ?

C’est d’autant plus dérangeant que les gouvernements ont réalisé que ce cadre rend leur propre censure bien plus facile : alors que leur lutte pour arrêter la diffusion de livres, tracts et à présent de sites Web ressemblait au travail de Sisyphe, elle va de plus en plus se résumer à l’envoi de demandes de suppression aux gardiens des portails numériques. Soudain, les contenus dérangeants peuvent être supprimés en mettant la pression sur un intermédiaire technique. Lorsque Exodus International (« mobiliser le corps du Christ pour soigner par la grâce et la vérité un monde impacté par l’homosexualité ») a publié une application qui entre autres lançait des invectives contre l’homosexualité, ses opposants ne se sont pas contenté de mal la noter (il y avait deux fois plus de notations une étoile que cinq étoiles), mais ils ont également envoyé des pétitions à Apple pour lui demander de supprimer l’application. Apple l’a fait (NdT : cf cet article des Inrocks).

Précisons qu’à la différence de ses homologues pour iPhone et iPad, la boutique d’applications pour Mac n’est pas le seul moyen de mettre des logiciels sur un Mac. Pour l’instant, vous pouvez toujours installer des logiciels sans passer par la boutique. Et même sur l’iPhone et l’iPad, qui sont bien plus verrouillés, il reste le navigateur : Apple peut contrôler le contenu des applications (et de ce fait en être jugée responsable) mais personne ne semble penser qu’Apple devrait se lancer dans le contrôle, le filtrage et la restriction de sites Web que les utilisateurs du navigateur Safari peuvent visiter. Une question aux gens qui ont lancé la pétition contre Exodus : est-ce que vous seriez également favorables à une pétition demandant qu’Apple interdise aux utilisateurs de Safari d’aller sur le site Web d’Exodus ? Sinon, qu’elle différence faites-vous, puisque Apple pourrait très simplement programmer Safari pour implémenter de telles restrictions ? Y a-t-il un sens à ce que les épisodes de South Park puissent être téléchargés via iTunes, mais que l’application South Park, qui contient le même contenu, ait été bannie de l’App Store ?

Étant donné que des applications tierces peuvent toujours s’exécuter sur un Mac et sur Android, il faut se demander pourquoi les boutiques et les places de marché occupent une position aussi dominante (et suffisamment attractives pour que les développeurs acceptent de relever le défi de faire approuver leurs applications et de perdre 30% de leurs revenus) plutôt que de simplement vendre directement leurs applications. L’iPhone a des restrictions sur l’exécution de code tiers, mais les développeurs peuvent toujours, dans de nombreux cas, se débrouiller pour offrir les fonctionnalités via un site Web enrichi et accessible avec le navigateur Safari du téléphone. Très rares sont les structures qui ont cette démarche avec leurs développeurs. Le Financial Times est un de ces fournisseurs de contenus qui a retiré son application de la boutique iOS pour éviter de partager avec Apple les données de ses utilisateurs et ses profits, mais il est isolé dans le monde des médias.

La réponse réside peut-être dans des choses en apparence triviales. En effet, même un ou deux clics de plus peuvent dissuader un utilisateur de consommer ce qu’il avait l’intention de faire (une leçon que l’affaire Microsoft a mise en lumière, quand l’accessibilité d’Internet Explorer directement sur le bureau a été vue comme un avantage déterminant par rapport à Netscape que les utilisateurs devaient télécharger et installer). Le choix par défaut a tous les pouvoirs, un constat confirmé par le montant des accords pour choisir le moteur par défaut des navigateurs. Ce genre d’accords a fourni en 2010 à Mozilla, le créateur de Firefox, 97% de ses revenus, c’est-à-dire pas moins de 121 millions de dollars. La soupape de sécurité des applications « tout-terrain » semble moins utile lorsque les gens sont attirés par les boutiques et les places de marché pour chercher sans effort les applications dont ils ont besoin.

La sécurité est également un facteur à prendre en considération. Lorsqu’ils voient tant de logiciels malveillant dans la nature, les consommateurs peuvent vouloir déléguer le contrôle de leurs programmes aux vendeurs de systèmes d’exploitation. Il existe une grande variété d’approches pour gérer la question de la sécurité, certaines impliquant l’utilisation d’un bac à sable, c’est à dire d’un environnement protégé à l’intérieur duquel s’exécute le logiciel. L’exécution dans un bac à sable sera bientôt obligatoire pour les application de la boutique pour Mac. On trouvera plus d’informations sur le sujet et une discussion sur ses avantages et ses inconvénients, ici.

Le fait est qu’aujourd’hui les développeurs écrivent du code en veillant non seulement à ce qu’il soit acceptable par les consommateurs, mais aussi par les vendeurs. Aujourd’hui, si un développeur souhaite proposer une application, il va devoir nécessairement en passer par la place de marché Android de Google et par la boutique iOS d’Apple; aucun des deux ne peut remplacer l’autre. Les deux placent le développeur dans une relation de dépendance avec le vendeur du système d’exploitation. L’utilisateur aussi est mis en difficulté : si je migre de l’iPhone à Android, je ne peux pas emporter mes applications avec moi, et vice-versa. Et au fur et à mesure que le contenu est distribué par des applications, cela peut signifier que je ne peux pas non plus emporter avec moi mon contenu ! (ou, si je peux, c’est uniquement parce qu’il y a un autre acteur comme Amazon qui a une application qui s’exécute sur plus d’une plateforme, aggrégeant le contenu). On ne se libère ici de la relation suffocante avec Apple, Google ou Microsoft que grace à un nouvel entrant comme Amazon, qui a structurellement la dimension suffisante pour peser et faire la même chose.

L’avènement du PC et du Web ont été un formidable accélérateur de communication et d’innovation. Des myriades d’applications sont nées créant une relation directe entre développeurs et utilisateurs sur des myriades de sites Web. À présent l’activité s’agglutine autour d’une poignée de portails, deux ou trois fabricants de systèmes d’exploitation qui sont en position de gérer en continu toutes les applications (et leur contenu).

Les développeurs de logiciels et les utilisateurs devraient exiger davantage. Les développeurs devraient chercher des moyens d’atteindre leurs utilisateurs sans être entravés, via des plateformes ouvertes, ou en faisant pression sur les conditions imposées par les plateformes fermées. Et les utilisateurs, informés et avertis, ne doivent pas céder à la facilité et au confort, en retournant à l’esprit originel du PC.

Si nous nous laissons bercer, voire hypnotiser, par ces beaux jardins clos, nous passerons à côté des innovations que les gardiens de ces jardins refusent. Et nous pouvons nous préparer à une censure du code et des contenus qui aurait été impossible et inenvisageable quelques années auparavant. Nous avons besoin de nerds en colère.

Notes

[1] Crédit photo : Victoria Reay (Creative Commons By)




20 ans de plus pour le Copyright musical en Europe : C’est là qu’est le véritable Vol !

Alan Stanton - CC by-saL’Europe prolonge de 20 ans les droits des interprètes et producteurs de musique pouvait-on lire dans Le Monde il y a un mois.

Pourquoi 20 ans au fait ? Et nous a-t-on jamais demandé notre avis ? D’ailleurs pourquoi 20 ans de plus et pas de 20 ans de moins ?

C’est ce que se demande, non sans une certaine (acide) ironie, l’un de ceux que nous traduisions le plus à Framalang : notre ami Glyn Moody[1].

Le copyright c’est le vol

Copyright Theft

Glyn Moody – 13 septembre 2011 – Blog personnel
(Traduction Framalang : Nilux, ZeHiro, Duthils et Penguin)

L’idée de « vol de copyright » est très répandue et l’idée que les gens « volent » du contenu numérique aux créateurs, sont des figures de style récurrentes chez les maximalistes du droit d’auteur. Tout ceci n’est bien sûr que des âneries. La loi stipule clairement qu’il ne s’agit que d’infraction au droit d’auteur, et la logique nous prouve que la copie numérique n’est pas du vol, puisqu’elle ne prive de rien, mais multiplie.

On peut effectivement se poser la question de savoir si la duplication non autorisée engendre une perte de revenus, mais la réponse n’est pas aussi simple que ce que l’on voudrait nous faire croire. Un large éventail d’études démontre que ce partage stimulerait les ventes, agissant comme une sorte de marketing officieux – et gratuit.

C’est pourquoi j’ai longtemps préconisé des recherches indépendantes sur ce sujet – après tout, si les industries liées au droit d’auteur sont si sûres que le partage de fichiers engendre des pertes de revenus, qu’auraient-elles à craindre d’études objectives à ce sujet ? Pourtant, elles semblent réticentes ne serait-ce qu’à envisager cette idée.

Mais quels que soient vos avis sur ce problème en particulier, il y a de grandes chances que ce qui suit ne fasse que l’aggraver :

Le Conseil Européen a adopté aujourd’hui, à la majorité qualifiée, une directive qui fait passer de cinquante à soixante-dix ans la durée de protection des droits des artistes interprètes ou exécutants et des producteurs d’enregistrements musicaux dans l’UE.

Sur le plan pratique, cela signifie qu’il y a très peu de chances que je – ou n’importe lequel de mes contemporains qui soit plus mélomane que moi – puisse un jour utiliser la musique d’aujourd’hui pour créer de nouvelles œuvres. Tout comme avec les autres médias, la musique enregistrée aujourd’hui vivra pendant près d’une centaine d’années dans une bulle aseptisée dans laquelle personne ne sera autorisé à entrer.

Tout ceci est théorique et très éloigné de nous ; il n’est peut-être pas évident de voir où est le problème. Examinons donc de plus près ce qu’il s’est passé en imaginant un étrange monde parallèle, remarquablement identique au nôtre, dans lequel ceci se serait produit:

Le Conseil Européen a aujourd’hui adopté à la majorité qualifiée une directive réduisant la durée de protection des droits des des artistes interprètes ou exécutants et des producteurs d’enregistrements musicaux dans l’UE de 50 à 30 ans.

Comme vous pouvez le constater, ce monde est presque strictement identique au nôtre, à la légère différence que la durée de validité du droit d’auteur pour les enregistrements musicaux a été raccourcie de 20 ans au lieu d’être allongée. Légère différence, penseriez-vous – après tout, 20 ans de plus ou moins, qu’est-ce que cela change ? Si on peut rallonger cette durée, on peut aussi la raccourcir, non ?

Mais dans ce monde parallèle, imaginez les hurlements de douleur et de colère qui émaneraient de l’industrie musicale face à cette réappropriation outrageuse et injustifiée de ce qui leur revient de droit. Les musiciens descendraient manifester dans la rue, et les compagnies vivant sur leur dos activeraient comme jamais leurs groupes de pression pour inverser cette terrible décision.

Heureusement pour eux, il ne s’agit que d’un monde parallèle. Mais grâce à la symétrie du droit d’auteur – c’est-à-dire le fait qu’il soit une aubaine aussi bien pour les créateurs que pour leur public, les premiers obtenant un monopole temporaire en échange d’un passage dans le domaine public une fois ce monopole expiré – c’est vous, moi et chaque membre de ce nébuleux public – qui sommes dépossédés. À la seule différence que personne n’est descendu dans la rue pour protester.

Quand les musiciens ont enregistré leurs chansons, l’accord était qu’ils recevraient des droits d’auteurs pendant 50 ans (ou moins, selon l’époque à laquelle ils les ont enregistrées). En contrepartie de ces 50 ans, ils acceptaient que le domaine public s’en voie enrichi pour que nous, le public, puissions faire ce que bon nous semble de cette musique.

Ce pacte, accepté librement par les deux parties, vient tout juste d’être brisé. Les enregistrements n’entreront plus dans le domaine public à la date convenue ; au lieu de ça, nous devrons attendre 20 années de plus. Dans les faits, on nous a volé 20 ans de domaine public, vu que rien ne nous a été donné en échange de cette perte soudaine.

Il n’y a donc pas à chipoter pour savoir s’il s’agit de vol ou non, puisque quelque chose nous a été pris sans que l’on nous en demande la permission. Oui, le Conseil Européen est censé, en théorie, agir en notre nom, mais je ne me souviens pas que l’on m’ait, à aucun moment, demandé mon accord. Le fait est que le Conseil a agi de façon unilatérale, à l’injonction de l’industrie musicale qui voulait le beurre et l’argent du beurre – et non parce que nous, le public, demandions aux politiciens de changer la loi en ce sens pour nous rendre plus pauvres que nous ne l’étions.

Voilà ce qu’est le vrai vol de droit d’auteur : on vole le public par une extension injustifiée et non démocratique du droit d’auteur.

Notes

[1] Crédit photo : Alan Stanton (Creative Commons)




Android et la liberté des utilisateurs par Richard Stallman

Laihiuyeung Ryanne - CC byAndroid, le système d’exploitation de Google pour la téléphonie mobile, est-il véritablement un logiciel libre ?

C’est la question que s’est posée récemment Richard Stallman dans le colonne du Guardian.

« Presque » pourrait être une réponse optimiste. Mais c’est un presque subtil et complexe qui demande quelques explications et éclaircissements[1].

Parce qu’ici comme ailleurs, le diable se cache souvent dans les détails…

Android et la liberté des utilisateurs

Android and Users’ Freedom

Richard Stallman – 19 septembre 2011 – GNU.org
Traduction : Sylvain Le Menn – Creative Commons BY-ND

Dans quelle mesure est-ce qu’Android respecte les libertés de ses utilisateurs ? Pour l’utilisateur d’un ordinateur qui chérit la liberté, c’est la question la plus importante à se poser pour tout logiciel.

Dans le mouvement du logiciel libre, nous concevons des logiciels qui respectent les libertés des utilisateurs de sorte que vous comme moi puissiez échapper à l’emprise de ceux qui les dénient. Cela contraste avec l’idée de l’« open source » qui se concentre sur la façon de concevoir le code ; c’est une réflexion différente qui s’intéresse principalement à la qualité du code plutôt qu’à la liberté. Ainsi, le souci principal n’est pas de savoir si Android est « ouvert », mais s’il permet à celui qui l’utilise d’être libre.

Android est un système d’exploitation orienté principalement vers les téléphones portables. Il est constitué du noyau Linux (le noyau de Torvalds), quelques bibliothèques, une plateforme Java, et quelques applications. Sans parler de Linux, le logiciel d’Android versions 1 et 2 a été concu essentiellement par Google. Google l’a sorti sous la licence Apache 2.0, qui est une licence libre permissive sans copyleft.

La version de Linux incluse dans Android n’est pas un logiciel entièrement libre puisque qu’il contient des morceaux de code non libres (des « binary blobs »), tout comme la version de Torvalds de Linux, dont quelques-uns sont réellement utilisés dans des machines tournant sous Android. Les plateformes Android utilisent des microprogrammes non libres aussi, ainsi que des bibliothèques non libres. À part cela, le code source des versions 1 et 2 d’Android telles que faites par Google sont libres, mais ce code est insuffisant pour faire tourner l’appareil. Quelques applications qui viennent généralement avec Android sont aussi non libres.

Android est très différent du système d’exploitation GNU/Linux, car il contient très peu de GNU. En effet, le seul élément commun entre Android et GNU/Linux se résume à peu près à Linux, le noyau. Les gens qui font l’erreur de croire que « Linux » fait référence à la totalité de l’écosystème GNU/Linux s’emmêlent les pinceaux, et font des affirmations paradoxales telles que « Android contient Linux, mais ce n’est pas Linux ». Si nous évitons cette confusion au départ, la situation est simple : Android contient Linux, mais pas GNU. Ainsi Android et GNU/Linux sont majoritairement différents.

À l’intérieur d’Android, le noyau Linux reste un programme séparé, avec le code source sous licence GNU GPL version 2. Combiner Linux avec le code sous licence Apache 2.0 représenterait une violation du copyright, puisque les licences GPL version 2.0 et Apache 2.0 sont incompatibles. Les rumeurs que Google a d’une manière ou d’une autre fait passer Linux sous licence Apache sont fausses. Google n’a aucun pouvoir pour changer la licence du code de Linux, et n’a pas essayé de le faire. Si les auteurs de Linux autorisaient son usage sous la version 3 de la licence GPL, ensuite ce code pourrait être combiné avec un code sous licence Apache, et la combinaison pourrait être rendue publique sous licence GPL version 3. Mais Linux n’a pas été publié ainsi.

Google a respecté les règles de la licence GPL (General Public License ou Licence publique générale) pour Linux, mais la licence Apache sur le reste d’Android n’oblige pas à montrer le code. Google a dit qu’ils n’allaient jamais publier le code d’Android 3.0 (à part Linux), même si les exécutables ont été rendus disponibles pour le public. Le code source d’Android 3.1 est aussi retenu. Ainsi, Android 3, en dehors de Linux, est purement et simplement du logiciel non libre.

Google a dit qu’ils gardaient le code source de la version 3.0 parce qu’il était bogué, et que les gens devraient attendre la version d’après. Cela pourrait être un bon conseil pour ceux qui veulent juste faire tourner le système Android, mais les utilisateurs devraient être ceux qui prennent ces décisions. Et de toutes façons les développeurs et les bidouilleurs qui voudraient inclure des changements dans leurs propres versions pourraient très bien utiliser ce code.

Le fait de ne pas rendre publique deux versions du code source est source d’inquiétudes dans le sens que Google pourrait vouloir rendre Android propriétaire de manière permanente, que la publication de quelques versions d’Android ait été une stratégie temporaire afin d’obtenir l’aide de la communauté pour améliorer un logiciel propriétaire. Espérons que ce n’est pas le cas.

Dans tous les cas, la plupart du code source de plusieurs versions d’Android ont été publiées en tant que logiciel libre. Est-ce que ça veut dire que des machines qui utilisent ces versions d’Android respectent les libertés de l’utilisateur ? Non, ce n’est pas le cas pour plusieurs raisons.

Tout d’abord, la majorité des versions comprend des applications non libres de Google pour communiquer avec des services tels que Youtube et Google Maps. Celles-ci ne font pas officiellement partie d’Android, mais cela n’en fait pas un bon produit pour autant. Il y a aussi la présence de bibliothèques non libres. Qu’elles fassent partie d’Android ou pas est discutable, ce qui importe c’est que beaucoup de fonctionnalités en dépendent.

Même les exécutables qui font officiellement partie d’Android peuvent ne pas correspondre au code des versions de Google. Les constructeurs peuvent changer le code, et bien souvent ils ne publient pas le code source de leurs versions. La licence GNU GPL les oblige, en théorie, à redistribuer le code de leurs versions de Linux. Le reste du code sous licence Apache ne les oblige pas à publier le code source des versions qu’ils utilisent réellement.

Replicant, une version libre d’Android qui n’est compatible qu’avec quelques modèles de téléphones, a remplacé beaucoup de bibliothèques, et peut fonctionner sans les applications non libres. Mais il y a d’autres problèmes.

Certains modèles sont conçus pour empêcher leur propriétaire d’installer et de modifier le logiciel. Dans cette situation, les exécutables ne sont pas libres, même s’ils sont faits à partir d’une source libre qui est disponible pour vous. Cependant, certains appareils Android peuvent être «?rootés?», ce qui permet aux utilisateurs d’y installer d’autres logiciels.

Les micrologiciels importants et les pilotes sont généralement propriétaires aussi. Ceux-ci gèrent le matériel pour le réseau, la radio, le wifi, le bluetooth, le GPS, l’accélération 3D, l’appareil photo, les hauts-parleurs, et dans certains cas le microphone aussi. Sur certains modèles, quelques-uns de ces pilotes sont libres, et pour certains on peut s’en passer, mais le microphone et l’accès au réseau sont plutôt indispensables.

Le micrologiciel qui gère l’accès au réseau est préinstallé. Si tout ce que le programme se contentait de faire était de tourner dans son coin, on pourrait le considèrer comme un simple circuit. Quand on insiste sur le fait qu’un logiciel dans un ordinateur doit être libre, on peut passer sur un micrologiciel préinstallé qui ne sera jamais mis à jour, car cela ne fait pas de différence pour l’utilisateur que c’est un programme plutôt qu’un circuit.

Malheureusement, dans ce cas ce serait un circuit malveillant. Des fonctions malveillantes sont inacceptables, quelle que soit la manière dont elles sont implémentées.

Sur la plupart des téléphones Android, ce micrologiciel a tellement de contrôle qu’il pourrait transformer le produit en un appareil d’écoute. Sur certains, il peut prendre le contrôle entier de l’ordinateur principal, à travers la mémoire partagée, et peut ainsi supplanter ou remplacer le logiciel libre que vous avez installé. Avec certains modèles, il est possible d’exercer un contrôle à distance sur ce micrologiciel, et ainsi sur le téléphone tout entier, à travers le logiciel permettant l’accès au réseau. Le principe du logiciel libre, c’est d’avoir le contrôle sur la machine, et cet appareil en l’occurence ne remplit pas cette mission. Bien que n’importe quel système informatique puisse avoir des bogues, ces appareils peuvent être des bogues (Craig Murray, dans Meurtre à Samarkand, fait le récit de son rôle dans une opération de renseignement qui convertit un téléphone portable sans Android d’une cible peu suspicieuse en un appareil d’écoute).

En tout cas, le micrologiciel du téléphone permettant l’accès au réseau n’est pas l’équivalent d’un circuit, car le matériel permet l’installation de nouvelles versions, et il fonctionne dans ce but d’ailleurs. Puisque c’est un micrologiciel propriétaire, en pratique seul le fabricant peut faire de nouvelles versions, les utilisateurs ne le peuvent pas.

Pour résumer, on peut tolérer des versions non libres des micrologiciels gérant l’accès au réseau à la condition que des mises à jour ne seront pas téléchargées, elles ne prendront ainsi pas contrôle de l’ordinateur principal, et il peut seulement communiquer quand et si le système d’exploitation libre le permet. En d’autres termes, il doit avoir un fonctionnement équivalent à un circuit, et ce circuit ne doit pas être malveillant. Il n’y a pas d’obstacles à construire un téléphone Android qui a ces caractéristiques, mais nous n’en connaissons aucun.

De récentes couvertures médiatiques se sont intéressées aux guerres de brevets. Pendant les 20 ans de campagne qui ont été consacrés à l’abolition des brevets logiciels, nous avons prévenu que de telles guerres pouvaient arriver. Les brevets logiciels pourraient contraindre à la disparition de fonctions dans Android, ou même le rendre indisponible (consultez endsoftpatents.org pour plus d’informations sur les raisons nécessitant l’abolition des brevets logiciels).

Pourtant, les attaques sur les brevets, et les réponses de Google, n’ont pas de lien direct avec le sujet de cet article : comment les produits Android sont proches d’un système de distribution éthique, et comment ils échouent de peu. Ce problème mérite l’attention de la presse aussi.

Android représente une étape majeure vers un téléphone portable libre qui soit contrôlé par l’utilisateur, mais il y a encore beaucoup de chemin à parcourir. Les hackers travaillent sur Replicant, mais c’est un gros travail de rendre un nouveau modèle compatible, et il reste encore le problème du micrologiciel. Même si les téléphones Android d’aujourd’hui sont considérablement moins mauvais que les smartphones d’Apple ou de Windows, on ne peut pas dire qu’ils respectent vos libertés.

Notes

[1] Crédit photo : Laihiuyeung Ryanne (Creative Commons By)




9 % pour le Parti Pirate à Berlin ! Et si la politique pouvait vraiment être réformée ?

Tobias Wolter - CC byLe Parti pirate allemand de Berlin n’osait espérer dépasser les 5% pour obtenir des sièges lors des élections de dimanche au parlement régional, il en a obtenu près du double en créant une véritable sensation qui va bien au delà des frontières de la cité.

Bien sûr il y a un ensemble de facteurs favorables liés au contexte local qui peuvent expliquer cet incroyable résultat (nature des élections, situation politique générale en Allemagne, dynamisme particulier de la jeunesse de cette ville…). Ce n’est donc pas demain la veille que tous les partis pirates européens auront 10% à toutes les élections.

Il n’en demeure pas moins que, tout comme le succès du Parti pirate suédois aux élections européennes de 2009, la date est à marquer d’une pierre blanche, de celle qui transcende et exalte le champ des possibles.

« Nous allons démontrer que la politique peut être réformée », nous promet ci-dessous le président du Parti pirate allemand, à la suite de ce succès[1].

C’est tout le mal que nous leur souhaitons, d’autant qu’il va sans dire que le logiciel libre n’était pas absent de leur programme de campagne (une campagne hyperactive sur Internet et qui n’a coûté au final que 40 000 euros, soit dit en passant, alors que les autres partis dépensaient des millions).

Hier les indignés de la Puerta del Sol, aujourd’hui le Parti pirate berlinois, demain viendra peut-être le tour de la France qui sait ?

Le parti pirate entre au Parlement de Berlin après une victoire historique aux élections

Pirate Party Enters Berlin Parliament After Historical Election Win

Ernesto – 18 septembre 2011 – TorrentFreak.com
(Traduction Framalang : Don Rico, Duthils, Lolo le 13, Mammig et Ypll)

Pour la première fois, un parti pirate a réussi à obtenir des sièges dans un parlement régional. Avec une estimation de 9% du total des suffrages, le Parti pirate dépasse de 5% le seuil nécessaire pour entrer au Parlement de Berlin et gagne plusieurs sièges. Pour le mouvement international des partis pirates, c’est un deuxième succès important après celui, suédois, des élections européennes de 2009.

Le Parti pirate allemand a remporté une brillante victoire aux élections du Parlement du land de Berlin. Deux heures après la fermeture des bureaux de vote, les premiers résultats indiquaient que les pirates avaient réuni 9% des suffrages. Cela se traduira par l’obtention de quinze sièges au Parlement.

Fondé en septembre 2006, le Parti pirate allemand a déjà enregistré plusieurs succès au cours de son existence relativement courte. Jusqu’à présent, le parti comptait plus de cinquante membres exerçant des mandats dans diverses circonscriptions allemandes, plus que dans tous les autres pays d’Europe réunis. Toutefois, le résultat du scrutin du 18 septembre reste sans précédent.


Jamais un parti pirate n’avait obtenu de siège dans un parlement régional ou un conseil fédéral. Le seuil requis pour obtenir un siège étant de 5%, l’exploit des élections berlinoises n’en est que plus impressionnant.

Les premiers résultats montrent que le Parti pirate a fait le plein de voix essentiellement chez les votants les plus jeunes. Quinze pour cent des électeurs de moins de trente ans ont voté pour le Parti pirate, mais même chez les soixante ans et plus, un faible pourcentage a donné son bulletin aux pirates.

Victoire électorale pour les pirates

Parti Pirate Berlin - Résultats

TorrentFreak a demandé à Sebastian Nerz, président du Parti pirate allemand, ce que ce succès signifiait pour son parti. Il nous a répondu que l’augmentation de son financement et son influence croissante permettront au Parti d’avoir un impact plus grand.

« Pour l’instant, le Parti pirate allemand n’a aucun salarié », explique Nerz. « Tous ceux qui travaillent pour le parti – y compris moi-même – le font en tant que bénévoles. Les députés, eux, sont payés pour leur travail. En outre, ils reçoivent de l’argent de l’État pour payer leurs assistants et leurs collègues. Cela permettra à ces pirates de travailler à plein temps pour le parti, et nous donnera ainsi plus de main d’oeuvre.

« Un autre avantage est que les citoyens et les médias prennent les partis qui ont accès au parlement beaucoup plus au sérieux. Bien des fois on m’a dit « votre parti n’est pas considéré parce qu’il n’a aucun élu ». Suite au succès de ce week-end, le parti sera nettement mieux placé sur ce plan.

De plus, le Parti pirate s’attend à une augmentation de ses membres grâce à son bon score, ainsi que du nombre de personnes travaillant pour le parti. Quant aux idées défendues, le parti se veut aussi transparent que possible, il veut améliorer la protection de la vie privée des citoyens, supprimer les brevets et limiter l’emprise toujours grandissante des organisations exploitant le droit d’auteur.

« Nous allons montrer qu’il est possible de faire de la politique de manière transparente. Jusqu’à maintenant, la politique est un domaine nébuleux et interdit. Les réunions sont tenues à huis clos, les ordres du jour et comptes-rendus sont tenus secrets, les traités non publiés », a déclaré Nerz à TorrentFreak.

« Nous démontrerons qu’il est possible d’informer ouvertement et sans mentir les citoyens de ce qu’il se passe, des alternatives possibles et pourquoi une certaine voie a été choisie. Nous démontrerons que les citoyens peuvent être intégrés dans les processus d’étude des faits et dans les choix politiques. Pourquoi ne pas demander aux citoyens leur opinion avant de décider ? Ça vaut bien un essai ! »

Une chose est sûre. Le Parti pirate a fait un score fantastique aujourd’hui. Avec ce résultat, le Parlement du land de Berlin sentira sans doute le vent frais venant du parti le plus technophile et respectueux de la vie privée. Tous les candidats de Berlin sont prêts et impatients de commencer, d’après le président.

« Pour être bref : Nous allons démontrer que la politique peut être réformée », dit Nerz

Note : nous mettrons à jour les pourcentages au fur et à mesure des résultats

Notes

[1] Crédit photo : Tobias Wolter (Creative Commons By)




20 ans que sans concurrence Microsoft équipe l’Europe !

Sébastien Bertrand - CC byLes institutions européennes, toujours promptes à donner la leçon, ont peut-être d’autres chats à fouetter actuellement mais il nous semble bon de leur rappeler un passé peu glorieux et un présent scandaleux[1].

Cela fait en effet près de 20 ans que l’on déroule le tapis rouge à la société non européenne Microsoft sans jamais prendre la peine d’évaluer les autres solutions, parmi lesquelles, évidemment, figure le logiciel libre.

Peut-être qu’en 1992, il était hasardeux de choisir autre chose que Windows pour ses postes clients. Mais pourquoi avoir systématiquement reconduit cette forme de partenariat exclusif jusqu’à aujourd’hui alors que parallèlement de réelles et crédibles alternatives voyaient le jour ?

Il est grand temps d’opposer au lobbying un certain bon sens citoyen. Je le dirai à mon député européen la prochaine fois que je le croiserai 🙂

Depuis 20 ans la Commission européenne achète du Microsoft sans concurrence

European Commission buys Microsoft for 20 years without competition

Mark Ballard – 15 août 2011 – ComputerWeekly.com
(Traduction Framalang : Goofy, ZeHiro, Pandark, Lolo le 13)

La Commission européenne achète des produits Microsoft depuis 1993 sans appel d’offre ouvert à la concurrence qui aurait pu proposer des alternatives, selon des documents transmis au magazine Computer Weekly.

Ces documents transmis au magazine Computer Weekly soulevent des questions quant à une politique d’achat qui a permis à un fournisseur unique de régner en maître pendant si longtemps en s’appuyant sur des exceptions législatives habituellement réservées à des circonstances extraordinaires.

Ils soulevent aussi des interrogations quant à la validité des explications officielles fournies par la Commission pour sécuriser ses accords commerciaux avec Microsoft, appelés « procédures négociées ». Le dernier en date, concerne l’acquisition pour environ 50 millions d’euros de licences logicielles pour les 36 000 PC et les infrastructures associées que comptent les 42 institutions européennes, y compris le Parlement Européen et la Cour de Justice.

Karsten Gerloff, président de la Free Software Foundation Europe, a dit que l’accord en cours avec Microsoft était une « honte » pour la Commission Européenne. « Il est effarant de constater que tous les accords passés entre la Commission et Microsoft depuis 1993 ont été conclus sans aucun appel d’offre public » a-t-il déclaré. « Il en résulte que la Commission Européenne est totalement dépendante d’un seul et unique fournisseur de logiciels pour ses outils de bureautique. Il est clair que les lois régulant les procédures d’achat de l’Europe doivent être rapidement mises à jour. Actuellement, celles-ci laissent bien trop de place aux accords négociés et anticoncurrentiels. »

« Ceci montre bien que le marché n’est ni juste ni égal », renchérit Paul Holt, directeur des ventes chez Canonical (NdT : Ceux qui distribuent Ubuntu). Il a ajouté que les accords que Microsoft a signé avec les institutions européennes empêchent celles-ci d’utiliser des standards ouverts qui permettraient de promouvoir la concurrence. Ainsi, Microsoft a pu imposer aux institutions européennes ses propres spécificités techniques.

Un porte-parole de Microsoft a affirmé que l’entreprise ne ferait pas de commentaires. « La Commission est le contractant et eux seuls décident de leur procédure d’achat » a-t-il dit.

Computer Weekly comprend toutefois que Microsoft s’appuie sur la ligne adoptée par le Directoire pour l’Informatique de la Commission Européenne (DIGIT) en réponse aux récentes questions des députés européens à propos de leurs contrats.

Maroš Šef?ovi?, le vice-président de la Commission et commissaire pour l’administration et les relations inter-institutionnelles, qui mène une réforme majeure des Technologies de l’Information et de la Communication dans la Commission Européenne, a déclaré aux députés européens que la Commission s’engageait dans la « promotion de l’interopérabilité » en utilisant des standards. Mais il a indiqué que ces standards pouvaient inclure ceux implémentés par les vendeurs de logiciels commerciaux. Il a démenti que la Commission ait été contrainte de se procurer des produits chez un unique fournisseur.

Le DIGIT affirma en 1992 qu’il était obligé de signer un arrangement privé avec Microsoft parce qu’aucune autre entreprise ne pouvait fournir le logiciel adéquat. Mais la justification officielle de la Commission pour cet arrangement demeure vague. Des procédures similairesen 1996 et 1999 confirment la position de Microsoft comme étant le seul fournisseur de systèmes d’exploitation et d’applications de bureautique pour la Commission.

Depuis 2003 cependant, la justification officielle de la Commission a évolué. La raison invoquée ici est qu’un logiciel alternatif impliquerait une incompatibilité technique et des migrations trop lourdes. Aiinsi il n’y a pas d’autre choix que de continuer à acheter du Microsoft.

La Commission a utilisé la même excuse d’incompatibilité pour justifier des achats sans concurrence avec Microsoft en 2007 et 2011. La justification contredit apparemment le discours de Šef?ovi? qui prétend que la Commission n’est pas pieds et poings liés à Microsoft, et qu’elle s’était engagée résolument dans la voie des standards interopérables.

Un porte-parole du DIGIT a déclaré que les directives concernant les achats de l’Union Européenne avaient changé plusieurs fois ces vingt dernières années, mais que les fournisseurs ont été choisis après une analyse approfondie du marché, des besoins des utilisateurs et du coût des achats.

« Il existe un grand nombre de procédures pour l’achat de biens et de services et tout choix particulier est dûment motivé et explicité. Il résulte d’une analyse poussée de la situation du marché, des besoins des utilisateurs et du coût total de l’acquisition. L’ensemble est mené dans un cadre qui a fait ses preuves, celui de la procédure Gestion des Technologies », a-t-il indiqué dans une déclaration écrite. Les décisions prises ont été soumises à un contrôle interne et sont conformes à la législation européenne.

Il a affirmé avec insistance que la Commission n’était pas contrainte à acheter des produits Microsoft : « Nous avons toujours dit clairement que ce n’était pas le cas, et que nous analysons en permanence les options offertes par le marché ».

Le dernier accord conclu en mai a assuré l’achat de licences pour que l’administration européenne puisse continuer à utiliser une gamme complète de logiciels Microsoft. Elle comprend les systèmes d’exploitation, la suite Office, le logiciel de gestion de base de données SQL Server Entreprise, des outils pour collaborer et gérer des projets ainsi qu’un volet sur la sécurité et le courrier électronique.

Mais Šef?ovi? a créé plusieurs comités de gestion des TIC qui n’ont toujours pas décidé si la Commission devait continuer à utiliser exclusivement des logiciels Microsoft. Ainsi on attend toujours la décision à prendre concernant la mise à niveau vers le système d’exploitation Windows 7, et ce neuf mois après avoir été soumise aux équipes dirigeantes.

Graham Taylor, directeur général d’Open Forum Europe, un groupe de pression activé par Google, IBM, Oracle et Red Hat, a déclaré qu’ils avaient abordé la procédure négociée avec « la plus extrême prudence », sans comprendre pourquoi la Commission l’avait utilisée pour empêcher la concurrence sur le marché du logiciel pour ordinateur de bureau.

Notes

[1] Crédit photo : Sébastien Bertrand (Creative Commons By)




La neutralité du Net, par Jean-Pierre Archambault

Desbenoit - CC by - Wikimedia Commons« La neutralité du Net ou la neutralité du réseau est un principe qui garantit l’égalité de traitement de tous les flux de données sur Internet. Ce principe exclut ainsi toute discrimination à l’égard de la source, de la destination ou du contenu de l’information transmise sur le réseau. »

Telle cette introduction Wikipédia ou cette illustration ci-contre, cela semble simple a priori.

Mais si l’on veut mieux la comprendre et en appréhender ses enjeux, le format Twitter ne suffit plus (surtout en cette période trouble où l’illimité pourrait prendre fin en France)

C’est dans ce but que nous publions un nouvel article de Jean-Pierre Archambault qui n’a pas son pareil pour nous présenter progressivement et limpidement un problème complexe 🙂

Et d’achever ainsi son propos : « Diderot et d’Alembert ont peut-être rêvé à un outil miracle faisant accéder en un tour de main tous les humains à toute la connaissance… L’enjeu est de conserver leur rêve devenu réalité. »

La neutralité du Net

URL d’origine du document

Jean-Pierre Archambault – juin 2011 – Association EPI

Le numérique est partout. Les débats sociétaux qu’il suscite se multiplient. Ainsi celui sur la neutralité du Net qui s’est installé de plain-pied dans l’actualité. Deux raisons principales sont à l’origine de ce débat : l’accroissement du trafic et la montée de questions juridiques et marchandes. S’interpénètrent des questions scientifiques, techniques, juridiques, économiques, commerciales, politiques, ainsi que celles de la liberté d’expression et de la citoyenneté, géopolitiques.

Le trafic sur internet ne cesse de croître, une évidence que cette rançon du succès ! La vidéo, gourmande en bande passante, sature les réseaux. Le marché mobile des terminaux explose. Les infrastructures doivent évoluer et se développer, le haut débit en premier lieu. Qui doit payer ? Qui pourrait payer ? Des mesures de discrimination, blocage et filtrage (pour les flux illicites), antinomiques avec la philosophie du Net, sont mises à l’ordre du jour, issues de problématiques comme la lutte contre la cybercriminalité, les modèles économiques de l’immatériel, des industries culturelles. La neutralité du Net rencontre ici les débats qui ont accompagné la transposition de la DADVSI, la loi Hadopi… La question se pose également de savoir si le Net est vraiment neutre. Et si la vision d’un cyberespace « idéal » et insensible aux réalités géopolitiques de la planète est réaliste et pertinente.

Un réseau de réseaux

Internet est un réseau de réseaux (de beaucoup de réseaux, grande distance, intranets, locaux) en trois couches : une couche physique (le fil de cuivre des réseaux téléphoniques, la fibre optique…), une couche logique (les logiciels, les protocoles d’internet) et des contenus[1]. Les câbles et les réseaux qu’ils interconnectent appartiennent à l’État ou à des entreprises privées. Les ordinateurs au sein du réseau fournissent un service de base – le transport des données – avec des fonctions très simples nécessaires pour les applications les plus diverses. L’intelligence et la complexité, à savoir le traitement de l’information, sont situées dans des ordinateurs à la lisière du réseau.

La philosophie d’internet repose fondamentalement sur l’absence de discrimination dans l’acheminement des flux et dans le fait de pouvoir, pour tout un chacun, accéder librement au réseau sans avoir à en demander la permission à une autorité. Des travaux montrent qu’un réseau d’information public est d’efficacité maximale s’il aspire à traiter tous les contenus, sites et plates-formes, de manière égale[2].

Cette architecture favorise l’innovation. En effet, les inventeurs ont seulement besoin de connecter leurs ordinateurs, sans qu’il faille modifier ceux de l’intérieur. La structure d’internet n’est optimisée pour aucune application existante spécifique, en conséquence le réseau est ouvert à toute innovation non prévue à l’origine. Il est neutre, au sens où un propriétaire du réseau ne peut pas sélectionner des données au détriment d’une nouvelle structure innovante qui menace une application en situation dominante. Les créateurs n’ont pas besoin d’obtenir une permission de quiconque pour développer une nouvelle application. Les opérateurs réseaux qui font circuler les paquets d’informations ne doivent pas y toucher. Sauf cas de force majeure, comme une congestion de réseau ou une attaque, ils doivent les transporter sans discrimination que ce soit, selon la source, la destination ou le type de message auquel le paquet appartient (données, voix, audio, vidéo). Ce principe est étendu aux services et applications, ce qui interdit les pratiques commerciales de distribution exclusive, d’exclusion et de traitement prioritaire au sein des offres internet.

D’autres réseaux fonctionnent « comme internet » : le réseau électrique auquel tout un chacun peut se connecter pourvu que son équipement corresponde aux normes du système, le réseau autoroutier car, à partir du moment où la voiture a été homologuée et où le conducteur a son permis de conduire, le concessionnaire de l’autoroute n’a pas à savoir pourquoi ni quand l’usager emprunte celle-ci.

Internet repose sur des standards ouverts de formats de données (HTML pour écrire des pages web) et de protocoles de communication (TCP/IP, HTTP). Il fonctionne à base de logiciels libres : Apache, SendMail, Linux… Il est donc difficile de verrouiller le réseau par la pratique du secret. Les logiciels libres contribuent à construire une plate-forme neutre. Ils la protègent par des licences comme la GPL et la diffusion du code source, garantissant aux développeurs qu’elle le restera dans l’avenir.

Au-dessus du réseau internet « se répandent à grande vitesse des applications du web comme les réseaux sociaux, le commerce électronique, l’usage des smartphones ou des tablettes, les blogs, les chats, la téléphonie sur IP, la géolocalisation, les sites de notation des restaurants, hôtels, voyages, les sites de rencontres, les sites de partage de vidéos, les jeux en ligne, etc. On pourrait se dire qu’on est vraiment embarqués sur un “bateau ivre”… De plus, vu les dangers et les menaces de piratage dont les médias se font écho pratiquement chaque jour, on peut également se dire que le bateau, en plus d’être “ivre”, navigue dans un véritable “champ de mines” !!! »[3]. Nous y reviendrons.

Les acteurs du Net

Quels sont les acteurs du Net ? Les internautes bien sûr. La puissance publique. Sur le plan économique, « la dernière décennie a consacré l’organisation économique d’Internet en quatre groupes d’acteurs : producteurs d’éléments de réseaux et de terminaux (ex. Intel, Microsoft, Cisco, Alcatel-Lucent, Dassault Systems), opérateurs réseaux (ex. AT&T, Verizon, France Télécom), fournisseurs de services et intermédiaires (ex. Google, Amazon, eBay, Pages Jaunes) et producteurs de contenus (ex. The Walt Disney Company, Time Warner, Lagardère, Reed Elsevier). La catégorie la plus récente, les intermédiaires, est celle qui participe le moins à l’investissement dans les réseaux, échappe largement à l’impôt et réalise les bénéfices les plus importants. C’est aussi celle qui occupe une part croissante des ressources en bande passante »[4]. On compte de l’ordre de 27 000 acteurs de par le monde.

Internet est une plate-forme qui semble mettre les internautes en relation directe, ce qu’elle n’est pas. Il y a le coeur du réseau, à savoir les réseaux d’accès avec la boucle locale (dédiée à une habitation ou à une entreprise) en cuivre ou en fibre optique, les opérateurs étant les fournisseurs d’accès à internet. Les points d’interconnexion assurent l’ouverture sur les autres réseaux d’accès par l’intermédiaire des « backbones », épine dorsale du réseau mondial[5]. Concernant les tuyaux et les flux de données, il y a donc les fournisseurs d’accès au client final, les opérateurs de transit au niveau du backbone, les hébergeurs qui stockent les données (dans des serveurs, les « data center »), les fournisseurs de « cache ».

Qui paye ?

Au plan mondial, le marché du transit et du cache représente quelques milliards d’euros, celui de l’accès plusieurs centaines de milliards d’euros. Historiquement les fournisseurs de contenus payaient les opérateurs de transit mais pas les fournisseurs d’accès. Aujourd’hui, les fournisseurs d’accès font payer une partie de leurs contrats aux fournisseurs de contenus. La téléphonie subventionne l’accès à internet. Nous avons vu ci-avant que la catégorie des intermédiaires (Google…) était celle qui participait le moins à l’investissement dans les réseaux, échappant largement à l’impôt et réalisant les bénéfices les plus importants. Les consommateurs payent davantage que les fournisseurs de contenus. Les enjeux sont d’importance et la bataille fait rage.

Le trafic va continuer à augmenter. La qualité de l’internet dépend en grande partie du dimensionnement des interconnexions, de la taille des tuyaux entre les réseaux des fournisseurs d’accès et les autres opérateurs de l’internet. Il va falloir investir dans les infrastructures fixes et mobiles. Qui va payer ? L’écosystème d’internet est complexe. Ménager un bon équilibre économique ne va pas de soi car les conflits d’intérêt sont bien réels. Comment par exemple mettre en place des mécanismes amenant les opérateurs qui induisent un trafic à payer aux fournisseurs d’accès un montant dépendant de la partie asymétrique des flux qu’ils engendrent ?

Certains, se fondant sur le fait qu’internet est et doit rester un bien commun de l’humanité, avancent l’idée d’un caractère et d’un financement publics, reposant donc sur l’impôt (notamment la fiscalité numérique qui reste un objectif majeur à mettre en oeuvre), d’une infrastructure publique d’intérêt général. Au même titre que d’autres infrastructures, par exemple les adductions d’eau, le réseau ferré ou les réseaux électriques qui le sont, l’étaient ou devraient le redevenir. Car le risque existe de dégradation de la qualité si les opérateurs n’investissent pas dans les réseaux ou privilégient la commercialisation des services gérés, mettant ainsi à mal le principe de non-discrimination, un des piliers de la neutralité du Net. Par exemple, les opérateurs réseaux sont tentés de facturer aux offreurs de contenus des services de livraison prioritaire, et aux abonnés une qualité de service privilégiée ou des bouquets de contenus exclusifs. En tout état de cause, la puissance publique ne saurait se désintéresser d’une infrastructure sociétale stratégique.

Une question centrale : la gestion du trafic

Faut-il mettre de l’intelligence dans le réseau ? Internet ne donne pas de garanties de performances dans l’acheminement, contrairement aux réseaux de type « circuits virtuels ». Les applications n’ont pas les mêmes besoins en termes de performances. La vidéo requiert beaucoup de bande passante, ce qui n’est pas le cas de la messagerie. Les applications en temps réel, synchrones, comme la téléphonie, se distinguent des applications asynchrones, le transfert de fichiers par exemple. La qualité dépend de l’interconnexion, de l’éloignement aussi, ce qui met en évidence l’intérêt du « peer to peer » qui distribue les échanges de fichiers entre plusieurs utilisateurs. Des routeurs sont capables de faire de la gestion de trafic à très haut débit avec des priorités. Faut-il permettre la discrimination des flux, mettre des priorités (ce qui n’est pas le cas en France pour les offres « triple play ») ? Les marchands répondent oui, on s’en doute. D’autres font dépendre la réponse du caractère commercial ou non des applications. Il y aurait alors l’internet et le non internet des services gérés. Ce qui supposerait que le commercial ne pénalise pas l’internet, qu’il y ait une garantie de qualité. Et il y a ceux pour qui il ne saurait y avoir de priorisation sur internet, bien commun, les services gérés n’existant que pour des applications qui en ont vraiment besoin. On pense par exemple à des services d’urgence médicale. Dans tous les cas, assurer la protection du principe de neutralité suppose des obligations de transparence imposées aux opérateurs en matière de gestion de trafic.

Sous l’angle du blocage et du filtrage

Le débat sur la neutralité du Net s’est aussi développé sous l’angle du « blocage », qui consiste à empêcher une communication sans inspection de contenu, et du « filtrage », qui repose sur une inspection de contenu, les deux soulevant des questions liées à la liberté d’expression sur internet. Les pouvoirs publics recherchent en la circonstance des moyens pour faire respecter la loi sur internet et lutter contre la cybercriminalité. Effectivement, l’État doit combattre les comportements attentatoires aux principes et valeurs de la société. Internet n’est pas un espace de non-droit. Les industries culturelles font pression, au nom de leurs modèles économiques traditionnels, pour empêcher l’accès aux contenus « illicites ». Mais l’on sait que la frontière avec les contenus « licites » peut être franchie. Et l’on sait surtout que les modèles économiques de l’immatériel ne peuvent pas être ceux de la production des biens matériels, les coûts marginaux de production et de diffusion d’un exemplaire supplémentaire étant quasi nuls[6]. Un vaste et tumultueux débat qui est loin d’être clos !

Un opérateur d’accès qui aurait une obligation légale de blocage serait amené à intervenir sur les contenus alors que son métier consiste à les acheminer. Les techniques de blocage (d’adresses IP, de noms de domaine, d’URL) et de filtrage ont un coût. Sont-elles efficaces ? Elles se contournent (utilisation de sites « miroir », de proxy, recours à un réseau privé virtuel) et peuvent engendrer des effets pervers (sur-blocage – les faux positifs – et sous-blocage – les faux négatifs –, chiffrement qui présente des risques pour la sécurité bien supérieurs à la défense des intérêts protégés…). Il est interdit d’utiliser son téléphone portable au volant. Pour autant, on n’a pas (encore ?) mis en place des dispositifs de blocage de cet usage-là.

Le rapport d’information déjà cité rappelle (page 34) : « Bien que, de manière générale, la Constitution n’oblige pas le législateur à prévoir l’intervention du juge pour prononcer toute mesure de restriction de la liberté individuelle, le Conseil constitutionnel a jugé, dans sa décision sur la loi HADOPI, qu’en raison de l’importance de la liberté d’expression et de communication et du rôle que joue l’accès à internet à l’égard de cette liberté, le législateur ne peut pas laisser une autorité administrative prononcer la sanction de suspension de cet accès. Il a ensuite précisé dans sa décision sur la LOPPSI que les dispositions confiant à l’autorité administrative le pouvoir de prononcer des mesures obligatoires de blocage “assurent une conciliation qui n’est pas disproportionnée entre l’objectif de valeur constitutionnelle de sauvegarde de l’ordre public et la liberté de communication garantie par l’article 11 de la Déclaration des droits de l’homme et du citoyen de 1789”, la décision de l’autorité administrative étant notamment toujours contestable devant le juge. »

Mais internet est-il vraiment neutre ?

Prenant un peu à contre-pied le débat sur la neutralité du Net, certains posent la question (iconoclaste ?) de savoir s’il est vraiment neutre. Serait-ce un mythe ?[7] La neutralité débattue est relativisée.

Le grand public ne le sait pas toujours mais l’ICANN, une association de droit californien, contrôle les ressources critiques que sont les adresses IP, les extensions et noms de domaines (fonction importante, noeud stratégique qui conditionne la visibilité sur le réseau), de par une dévolution du Ministère Américain du Commerce et dans l’absence de transparence requise ! Ainsi la France gère-t-elle son domaine national (.fr) en vertu d’une délégation accordée par cette association. Il est pour le moins surprenant et paradoxal de voir un espace public mondial géré par une association californienne ! Une nouvelle gouvernance, dans laquelle notamment chaque État aurait voix au chapitre dans des rapports d’égalité et en toute indépendance, s’impose car elle est une exigence légitime.

La couche basse d’internet, son épine dorsale en particulier, ce sont des câbles qu’il faut fabriquer et poser, sous la terre, les mers et les océans, ce sont des satellites. Et il faut gérer ces infrastructures. Ce monde est opaque et non régulé. Il est tenu par un club très fermé de gros transporteurs, pour l’essentiel des firmes états-uniennes. Elles contrôlent la quasi-totalité du trafic au plan mondial, ce qui leur procure en passant des profits substantiels.

On a vu que la mise en relation des internautes était loin d’être directe. Il y a des intermédiaires, qui plus est, de plus en plus puissants et concentrés : Google, Amazon, eBay, Apple, Yahoo, MSN, Facebook et autres compagnies. Ils commercialisent tout ce qui peut l’être dans le nouveau monde numérique : données personnelles, données de connexions, statistiques, musique, livres… Et si l’on ne connaît pas les algorithmes que Google utilise, en revanche on sait qu’il leur arrive d’accorder des « faveurs » dans leurs classements au bénéfice de sites avec lesquels l’entreprise entretient des relations commerciales. L’attention des internautes est captée à leur insu. Ils sont devenus la cible de producteurs de contenus en recherche de consommateurs. L’informatique est à la fois du calcul, du stockage et de la communication. L’approche de la neutralité du Net doit être globale. Elle doit aussi s’intéresser aux programmes et aux applications dont on doit savoir ce qu’ils font exactement. Et aux informations (quelles informations ?) qu’ils stockent on se sait trop où pour des utilisations dont il arrive qu’on les ignore.

Des questions de fond, planètaires

Avec internet, nous sommes de plain-pied dans des questions qui ont à voir avec l’état du monde et son devenir[8]. L’économie de la planète s’est réorganisée autour d’internet. Est en question le contrôle du commerce mondial, enjeu majeur comme ont pu l’être dans les siècles passés le contrôle du détroit des Dardanelles ou du canal de Suez. La mondialisation des activités humaines, long processus qui ne date pas d’hier, signifierait-elle dissolution des civilisations, des cultures, des langues (il existe d’autres caractères que latins sans accent : indiens, cyrilliques, arabes, mandarin… et un DNS peut s’écrire avec des idéogrammes), des systèmes économiques, des frontières, des modèles juridiques, des distances… des différences entre les hommes ? Fort improbable (on peut légitimement penser que c’est mieux ainsi) si l’on se réfère à la réalité observée. Quid alors de cette perception d’internet système global, homogène, offrant une plate-forme universelle de communications multimédia ? Exception paradoxale ou mythe, un de plus ? « L’internet est un réseau de réseaux autonomes depuis son ouverture commerciale au début des années 80. Il est fragmenté par construction, et il le restera »[9]. Et cette fragmentation devrait se renforcer. Avec « des webs “régionaux” ou même “continentaux”, à l’instar de la Chine et de son “AsiaNet” ; des webs “linguistiques”, où l’on pourra utiliser toute la puissance de sa langue maternelle pour exprimer une recherche, une adresse email ; des webs “culturels” qui embarqueront ou non des webs sectaires et/ou ethniques ; des webs “fermés”, sécurisés, anonymisés, plus ou moins cachés selon les objectifs suivis par leurs promoteurs et/ou utilisateurs ; des webs commerciaux, sur base “navigation” et/ou activité sociétale, essayant avec des bonheurs divers d’attirer des internautes dans leurs filets pour en revendre l’identité et leurs besoins et/ou habitude et/ou opinion… »[10]. La Chine s’est émancipée du contrôle américain de l’internet et ce sera bientôt le cas de l’Inde. Cela a nécessité le travail de milliers d’ingénieurs pendant des années.

Pourtant, « un épouvantail agité fréquemment par les gardiens du temple est la balkanisation ou fragmentation du réseau, avec son cortège de calamités, discontinuité des communications, confusion des noms et adresses, instabilité, insécurité, perte de fiabilité… Faudrait-il s’efforcer de maintenir au maximum un système de contrôle historique dont les éléments critiques sont verrouillés par le gouvernement des États Unis ?… oubliant au passage que la Chine a construit son propre internet, qu’il existe des milliers d’intranets… S’il fut un temps où l’ICANN, mandataire du gouvernement US, faisait la loi, on observe maintenant un réveil des gouvernements dits du sud… Le tropisme de fragmentation se renforce à mesure que les enjeux techniques deviennent minoritaires au regard d’autres domaines comme la propriété intellectuelle, le filtrage des informations, les investissements en infrastructure, la législation, la criminalité, ou les facteurs culturels et religieux »[11]. S’affrontent des modèles de cybersociétés, ayant chacune leurs valeurs, avec leur cortège de cyberconflits, cyberattaques[12], opérations de manipulation et désinformation, leurs enjeux en matière de souveraineté, de régulation et de sécurité des systèmes d’information. Dernière illustration en date, la publication par les États-Unis de leur « International Strategy for Cyberspace » dans laquelle ils indiquent leur volonté de réguler l’internet, de promouvoir un Internet « ouvert, interopérable, sécurisé et fiable »[13]. Un objectif louable mais, pour autant, les moyens annoncés ne manquent pas d’en inquiéter légitimement plus d’un de par le monde. En effet, « pour réaliser ce futur et aider à promulguer des normes positives, les États-Unis associeront diplomatie, défense et développement pour favoriser la prospérité, la sécurité et l’ouverture afin que chacun puisse bénéficier de la technologie du réseau ». Et les points sont mis sur les « i » : « Les États-Unis vont, avec d’autres nations, encourager un comportement responsable et s’opposer à ceux qui chercheront à perturber les réseaux et systèmes, en dissuadant et démasquant les acteurs malicieux, en défendant ces installations nationales vitales de façon aussi nécessaire et appropriée qu’il faudra. Nous nous réservons le droit d’utiliser tous les moyens – diplomatiques, informatifs, militaires et économiques – si appropriés et compatibles avec la loi internationale, afin de défendre notre nation, nos alliés, nos partenaires et nos intérêts. Nous épuiserons toutes les options avant d’en venir à la force militaire à chaque fois que nous le pourrons. » Le cyberespace est décidément bien dans l’espace « réel » !

Des mesures à prendre

L’enjeu de défense d’un bien commun et d’un bien public à l’échelle de la planète se situe donc dans un contexte global pluraliste. Cela étant, réaffirmer ces caractères de bien commun et bien public ainsi que le bien-fondé de l’intervention de la puissance publique reste fondamental. Cela implique quelques mesures qui figurent dans le rapport parlementaire déjà cité : inscrire dans la loi le principe de neutralité ; prévoir a minima l’intervention systématique du juge pour éviter les dérives en matière de blocage et s’interroger sur son efficacité ; réserver l’appellation internet aux services respectant le principe de neutralité et ainsi les distinguer des services gérés à caractère commercial ; obliger à une qualité « suffisante » pour tous les internautes. En définitive, faire en sorte qu’internet reste une plate-forme ouverte. Diderot et d’Alembert ont peut-être rêvé à un outil miracle faisant accéder en un tour de main tous les humains à toute la connaissance… L’enjeu est de conserver leur rêve devenu réalité.

Jean-Pierre Archambault
Président de l’EPI

PS : le débat sur la neutralité du Net est un débat de société qui concerne tous les citoyens. Il mêle d’une manière inextricable des questions politiques, économiques, juridiques et des concepts scientifiques et techniques : couches et protocoles de l’internet, adresses IP, réseaux d’accès et de transit, réseaux privés virtuels, routage, gestion du trafic, interconnexion des réseaux, chiffrement, standards ouverts… D’une manière évidente, un exercice plein de la citoyenneté suppose des connaissances de la science informatique, des représentations mentales efficientes. Fort opportunément, le programme de l’enseignement de spécialité optionnel « Informatique et sciences du numérique » créé en Terminale S à la rentrée 2012 comporte une partie consacrée aux réseaux. Une première avancée bienvenue pour les élèves de la filière scientifique ! Et tous sont concernés.

Notes

[1] Rapport parlementaire d’information déposé par la Commission des Affaires Économiques sur la neutralité des réseaux : Voir « Internet en 32 points », pages 16 à 20. « Innover ou protéger ? Un cyber-dilemme », Jean-Pierre Archambault, Médialog n° 58 de juin 2006, p. 42-45.

[2] Voir rapport parlementaire ci-dessus note 2, page 13.

[3] « La Netocratie », Mauro Israël, Forum Atena Où va la cybersociété ? Champ de mines ou bateau ivre ?, juin 2011. http://www.forumatena.org…

[4] « La neutralité du Net, un mythe paradoxal », Dominique Lacroix, Forum Atena Mythes et légendes des TIC, page 16. http://www.forumatena.org

[5] Voir rapport parlementaire ci-dessus note 2, « Interconnexion, transit et peering », pages 52 à 56.

[6] « Téléchargement sur Internet : quelle légitimité ? », Jean-Pierre Archambault, Médialog n° 57 de mars 2006, p. 42-45.

[7] Voir note 5 « La neutralité du Net, un mythe paradoxal », Dominique Lacroix, Forum Atena Mythes et légendes des TIC, page 16.

[8] Forum Atena Où va la cybersociété ? Champ de mines ou bateau ivre ? juin 2011. http://www.forumatena.org…

[9] « Où va l’internet ? Mondialisation et balkanisation », Louis Pouzin, Forum Atena Où va la cybersociété ? Champ de mines ou bateau ivre ? juin 2011. http://www.forumatena.org…

[10] Michel Charron, Forum Atena Où va la cybersociété ? Champ de mines ou bateau ivre ? juin 2011. http://www.forumatena.org…

[11] Voir note 10 « Où va l’internet ? Mondialisation et balkanisation », Louis Pouzin, Forum Atena Où va la cybersociété ? Champ de mines ou bateau ivre ? juin 2011. http://www.forumatena.org…

[12] « The Malicious Flash Crash Attack ou pourquoi il faudra peut-être ralentir les transactions électroniques », Robert Erra, Forum Atena Où va la cybersociété ? Champ de mines ou bateau ivre ? juin 2011 http://www.forumatena.org…

[13] « Les États-Unis veulent réguler Internet », Orianne Vatin, L’informaticien, le 18 mai 2011.




Les brevets logiciels : une histoire de fous !

Kalidoskopika - CC by-sa« Les entreprises trouvent plus intéressant de gagner de l’argent en se faisant mutuellement des procès qu’en créant vraiment des produits. » Tel est le cinglant résumé de ce récent éditorial du Guardian qui prend appui sur l’actualité, dont le fameux rachat de Motorola par Google, pour nous livrer un constat aussi amer qu’objectif[1].

« Les brevets étaient censés protéger l’innovation. Maintenant ils menacent de l’étouffer. » Voilà où nous en sommes clairement maintenant.

Un nouvel exemple d’un monde qui ne tourne pas rond. Un nouvel exemple où le logiciel libre pourrait aider à améliorer grandement la situation si le paradigme et les mentalités voulaient bien évoluer.

Brevets logiciels : une histoire de fous

Software patents: foolish business

Éditorial du Guardian – 21 aout 2011 (Traduction Framalang : Goofy et Pandark)

Les entreprises trouvent plus intéressant de gagner de l’argent en se faisant mutuellement des procès qu’en créant vraiment des produits.

La plupart des gens comprennent les raisons et les arguments en faveur des brevets industriels. Ces derniers fournissent à un laboratoire pharmaceutique — qui a investi une fortune dans le développement d’un nouveau médicament — une sorte d’opportunité pour, pendant une période limitée, rentabiliser sa mise initiale avant que le reste du monde ne puisse en faire des versions moins chères. Mais les brevets logiciels, bien que semblables au plan juridique, sont très différents sur le plan pratique. Quand Google a racheté la division téléphone mobile de Motorola pour 12, 5 milliards de dollars la semaine dernière, l’événement a fait des vagues dans le commerce comme dans l’industrie, parce qu’il ne s’agissait pas d’acheter les mobiles de Motorola mais son portefeuille de plus de 17000 brevets logiciels, denrée devenue la poudre d’or de l’âge numérique.

Les brevets constituent une industrie qui brasse plusieurs milliards, et les entreprises trouvent plus intéressant de gagner de l’argent en se faisant des procès qu’en créant un produit. Jusqu’au milieu des années 90 l’industrie informatique — Microsoft compris — étaient opposée à cet abus de licences. essentiellement parce que l’industrie était suffisamment innovatrice pour pouvoir se passer de la protection des brevets, qui de toutes façons incluaient des avancées technologiques relativement ordinaires, considérées comme la routine du travail d’ingénieur.

Puis, la tentation entra en scène. Les juristes des entreprises prirent conscience qu’ils pouvaient poursuivre les autres pour infraction aux brevets souvent achetés par lots. Ils furent rejoints par des entreprises « troll », constituées dans l’unique but d’acheter des brevets et de faire des procès aux autres entreprises et aux développeurs, sachant pertinemment que la plupart accepteraient une transaction à l’amiable plutôt que d’affronter les coûts prohibitifs de leur défense juridique. Les entreprise qui étaient précédemment opposées aux brevets logiciels se sont aujourd’hui lancées dans la course à l’armement. Microsoft a accumulé un gigantesque arsenal de brevets et peut taxer un fabricant comme HTC à raison de 5 dollars par téléphone portable vendu — même si le système d’exploitation Android (développé par Google) utilisé sur les téléphones HTC est « open source » et supposé disponible pour tous. Avec des centaines, si ce n’est des milliers de brevets maintenant en jeu dans un téléphone mobile, il est pratiquement impossible de ne pas enfreindre un brevet d’une manière ou d’une autre. Dans le même temps Google, confronté au puissant aspirateur à brevet de ses rivaux, a été contraint de s’acheter son propre portefeuille en réaction d’auto-défense.

Les brevets étaient censés protéger l’innovation. Maintenant ils menacent de l’étouffer. De telles acquisitions peuvent entraîner les entreprises de technologies de l’information bien loin de leur cœur de métier. Une recherche universitaire menée par le Berkman Center for Internet and Society a montré que les brevets logiciels n’ont procuré aucun bénéfice à l’industrie du logiciel, et encore moins à la société dans son ensemble. C’est dramatique, car un grand nombre d’entreprises qui étaient auparavant opposées aux brevets logiciels se sont ralliées à ce système, rendant plus difficile de trouver une solution efficace. Une fois de plus les consommateurs sont vent debout contre les entreprises. Où sont les forces régulatrices quand on en a besoin ?

Notes

[1] Crédit photo : Kalidoskopika (Creative Commons By-Sa)