Un mois de campagne « 1000 10 1 »

Harrypopof - Licence Art Libre

Il y a tout juste un mois, nous lancions ici même une audacieuse et indispensable campagne de soutien.

Aujourd’hui, plus de 600 personnes ont soutenu Framasoft suite à cet appel et plus de 250 ont décidé de participer à l’opération en nous assurant d’un soutien régulier et mensuel. Nous tenons donc, en premier lieu, à les en remercier très sincèrement.

Toutefois, comme l’illustre Harrypopof [1] avec humour et talent, si un quart de l’objectif a déjà été atteint, la route est encore longue… [2]

Depuis sa création, Framasoft n’a cessé de mener à bien des projets visant à promouvoir le logiciel libre et sa culture. Au-delà de Framasoft.net, le grand annuaire francophone et collaboratif de logiciels libres, des bénévoles sont venus apporter toujours plus de bonnes idées et de bonne volonté pour réaliser de nouveaux projets, rencontrant à leur tour des succès encourageants. On retrouve ainsi les forums Framagora et leurs 250 000 messages, les logiciels francophones adaptés pour clé USB de Framakey.org, téléchargés et distribués par centaines de milliers, les livres libres de la collection Framabook, les compilations d’œuvres libres des FramaDVD, les 100 000 logiciels libres installés via Framapack, le Framablog, ses 850 billets, ses traductions Framalang et ses vidéos Framatube, le tout consulté plus de 80 000 fois par mois…

Toutefois, cela n’aurait pas été possible sans un premier permanent, Pierre-Yves Gosset, assurant l’administration des serveurs, le suivi des projets, les relations publiques, les tâches administratives et le support… (plus de détails sur LinuxFR.org)

Pour continuer à accompagner les projets de l’association et répondre à la charge croissante, Framasoft a décidé en juin dernier d’embaucher un second permanent, Simon Descarpentries, pour épauler le premier dans ses semaines à plus de 50h et lui permettre de prendre ses premières vacances depuis deux années passées sur les chapeaux de roues.

Cette décision est aujourd’hui menacée par manque de financement, ce qui nous amène à une question simple :

« Souhaitez-vous que Framasoft continue à créer de nouveaux projets, tout en consolidant les précédents succès ? »

Framasoft a besoin de vous aujourd’hui pour continuer, en toute indépendance, à soutenir le logiciel libre et sa culture, et à créer des projets qui mettent du libre entre toutes les mains.

Nous avons ainsi mis en place une campagne intitulée « 1000 10 1 », qui vise à réunir 1000 personnes donnant 10 € par mois pendant au moins 1 an, afin de proposer une solution franche et durable qui permettra à l’association de consacrer plus de temps au développement des projets et moins à la recherche de financement. Grâce à la reconnaissance d’intérêt général dont bénéficie l’association Framasoft, l’opération ne coûtera au final qu’un peu plus de 3 € par mois, soit 40€ au total aux contribuables français, soit 2 DVD en grande surface ou 4 albums en MP3 DRMisés sur Fnac.com 🙂 Enfin, si 1000 personnes permettraient d’assurer le fonctionnement de l’association sur une année, la moitié de cet objectif est nécessaire d’ici la fin de l’année pour le maintien du poste de notre second permanent.

Pour l’heure, nous avons eu le plaisir d’annoncer le lancement de nouveaux projets tels que le FramaDVD École, ou encore les Framabooks « Simple comme Ubuntu », « Le C en 20 heures » et « Pour aller plus loin avec la ligne de commande sous Unix » tous trois librement disponibles sur le site de la collection Framabook [3], ou encore de tenir conférences [4] et ateliers lors de la dernière Ubuntu Party et au centre de formation de la librairie Eyrolles avec l’April. Sans détailler l’effort tout particulier qui se poursuit encore quant à la mise à jour 10.10 Maverick Meerkat de la Framakey Ubuntu-fr Remix, bientôt disponible sur notre boutique EnVenteLibre.

Pour que Framasoft reste à vos côtés encore longtemps, répondez à l’appel de l’April, de LinuxFr, de Benjamin Bayart (président de FDN), de Jérémie Zimmermann (Co-Fondateur de La Quadrature du Net) ou encore de Tristan Nitot (président de Mozilla Europe).

Soutenez Framasoft sur : http://soutenir.framasoft.org

Harrypopof - Licence Art Libre

Notes

[1] Crédit : Harrypopof – Licence Art Libre

[2] …mais la voie est toujours libre !

[3] Et 4 autres sont bien avancés…

[4] Au sujet de la Framakey pour Pierre-Yves et devant des collégiens pour ma part.




Les cordons de la bourse de Londres se relâchent pour GNU/Linux

Jam_90s - CC-ByComme nous l’apprenait Lea-Linux le mois dernier :

GNU/Linux progresse sur les environnements dits critiques. On savait qu’il était utilisé sur les serveurs sensibles des militaires, des grands organismes de recherche, de la NASA et de nombreux industriels, ajoutons désormais le monde de la finance à cette liste. En effet, Computer World UK nous apprend que la Bourse de Londres mettra en production le 15 novembre prochain sa nouvelle plate-forme à base de GNU/Linux et Solaris, pour remplacer la plate-forme boguée « TradElect » basée sur Microsoft Windows, et la technologie .Net manifestement trop lente.

GNU/Linux a notamment été choisi par les britanniques pour ses performances (des temps de transmission de 0,125 milliseconde ont été enregistrés lors des tests). Le fait que le Chicago Mercantile Exchange, la Bourse de Tokyo et le NYSE Euronext soient déjà passés à GNU/Linux (Red Hat) n’y est sans doute pas pour rien non plus.

[1]

La Bourse de Londres a réalisé un premier test de sa plateforme « Millennium Exchange » basée sur Linux

London Stock Exchange completes first live Linux test

Leo King – 13 octobre 2010 – Computerworld UK
Traduction Framalang : Pablo, Barbidule, Siltaar, Kootox, Goofy, Petrus6, Martin, Don Rico, Daria

La Bourse de Londres a fait le premier test grandeur nature, avec des clients en ligne, d’un nouveau système fondé sur Linux et destiné à remplacer l’architecture actuelle basée sur des produits Microsoft et qui permettra d’échanger à la vitesse de 0.125 millisecondes.

Le système « Millennium Exchange » fonctionnant sur Linux et sur Unix (Sun Solaris) et utilisant les bases de données d’Oracle, remplacera le 1er novembre la plateforme TradElect, reposant sur Microsoft .Net, pour la plus grande bourse au monde. Il promet d’être le système d’échanges le plus rapide du monde, avec un temps de transaction de 0.125 milliseconde. La Bourse a terminé la migration de son système de gestion des transactions stagnantes/dormantes, ou anonymes, Turquoise, depuis différents systèmes, plus tôt ce mois-ci.

La BDL (Bourse De Londres) a refusé de dévoiler le verdict du test en avant-première du « Millenium Exchange », qui s’est déroulé samedi après plusieurs mois de tests hors ligne intensifs. Cependant, des sources proches de la Bourse ont indiqué qu’il se serait déroulé avec succès.

Une autre répétition générale aura lieu le 23 octobre, un peu plus d’une semaine avant le lancement dans le grand bain. La Bourse pousse pour lancer le service le 1er novembre, mais si les clients, les traders, ne sont pas prêts ou si des problèmes techniques apparaissent, une date de lancement alternative a été prévue au 15 novembre.

En attendant, la Bourse va continuer à travailler avec le système TradElect, basé sur une architecture Microsoft .Net et mis à jour par Accenture en 2008 pour 40 millions de livres (46 millions d’Euros). En juillet, elle a réservé 25,3 millions de livres (29,2 millions d’Euros) en coûts d’amortissement sur TradElect.

TradElect, sujet de nombreuses controverses ces dernières années, avait subi une série de pannes de grande envergure, la pire étant un arrêt de huit heures en 2008. À l’époque, la BDL avait maintenu que TradElect n’était pas responsable de la panne, mais a néanmoins, tenté de remplacer la plateforme depuis, en faisant l’acquisition de la société MilleniumIT, le fournisseur de ce nouveau système.

Les vitesses réseau sont aussi une des raisons principales de ce changement. La BDL a tenté désespérément de descendre les temps de transaction sur TradElect en-dessous des 2 millisecondes, une vitesse léthargique comparée à la concurrence comme Chi-X qui annonce des temps de moins de 0,4 millisecondes.

La BDL annonce que sa nouvelle plateforme d’échange aura des temps de réponse de 0,125 millisecondes, ce qui pourrait en faire une des plateformes d’échange les plus rapides du monde. Le changement est particulièrement important étant donné la progression des transactions algorithmiques, où des ordinateurs placent automatiquement des millions d’ordres d’achat et de vente alors que les prix des actions changent.

Lors d’une interview cette semaine dans le Financial Times, le directeur général de la Bourse de Londres, Xavier Rolet a déclaré que la Bourse avait « déjà prévu » la prochaine génération d’améliorations technologiques pour maintenir la plateforme Millenium à la pointe de la technologie en terme de vitesse de transaction.

Notes

[1] Crédit photo : Jam_90s Creative Commons By




TF1 réclame (sans rien risquer) Google censure (sans vérifier)

Vidberg © LeMonde.fr Sur le Framablog, on ne manque pas une occasion d’agir contre la censure, ou de publier le témoignage d’un citoyen s’élevant contre les menaces et restrictions faites à nos libertés fondamentales [1]. Parce qu’après tout, et comme me le fit un soir remarquer Benjamin Bayart, qu’est-ce qui nous motive tous dans le mouvement du Logiciel Libre ? Et dans la défense de la neutralité du réseau qui lui est indispensable ? Qu’est-ce qui nous réunit, si ce n’est la liberté d’expression ? Cette petite flamme fragile et dangereuse qui vacille au souffle du pouvoir et nécessite, pour être entretenue, notre attention constante.

Le témoignage que nous vous proposons aujourd’hui est celui de Theocrite, un « administrateur système » engagé pour le Logiciel Libre, qui nous explique comment TF1 [2] a silencieusement fait censurer par Google un extrait vidéo de débat à l’Assemblée Nationale.

On savait déjà que certains n’hésitent pas à attaquer, en vertu du Copyright de sa bande son, une vidéo compromettante, au mépris du « fair-use » largement accordé aux vidéos de lolcats. Mais cet extrait, posté par La Quadrature du Net, n’a lui pour seule bande son que le discours à l’Assemblée des députés de la République. Cela n’a pourtant pas arrêté TF1 [3] dans son coup de poker, son nouveau coup de poignard dans le dos de l’éthique et de notre liberté d’information.

Cette vidéo, c’est celle du rejet intégral par l’Assemblée Nationale du projet de loi HADOPI 1 le 9 avril 2009, et, pour illustrer le principe selon lequel une tentative de censure s’avère toujours contre-productive pour le censeur, la voici, archivée dans notre collection Framatube :

—> La vidéo au format webm

TF1 censure des vidéos HADOPI sur YouTube

Et Google ne vérifie pas la véracité des accusations

Theocrite – 1er novembre 2010

En me promenant sur le compte YouTube de la Quadrature du Net, j’ai découvert récemment dans les paramètres du compte que certaines vidéos étaient listées comme pouvant « comporter un contenu appartenant à un tiers ».

Theocrite - CC By Sa

Hm, c’est possible… Intrigué, je clique sur le lien proposé et je m’aperçois que la vidéo en question est la vidéo du rejet de la loi HADOPI l’Assemblée Nationale.

Theocrite - CC By Sa

Bigre ! Voilà que des vidéos contenant des discours « prononcés dans les assemblées politiques » serait en contradiction avec le droit d’auteur. Voilà qui est bien étrange.

Pour en savoir plus, je clique sur « Afficher les informations sur les droits d’auteur ».

Theocrite - CC By Sa

On y apprend des choses très intéressantes… Comme le fait que les vidéos produites dans l’hémicycle seraient la propriété de « lgl_tf1 ». Un peu présomptueux de la part de la vieille chaîne qui descend.

Bon, portons réclamation. Après avoir lu une page chiante à mourir, on accède à un formulaire de réclamation, fortement limité, mais je suis décidé à faire avec.

Theocrite - CC By Sa

Theocrite - CC By Sa

Je fais alors subtilement remarquer que dans la législation française, les débats politiques sont publics… Puis je valide l’envoi du formulaire.

Theocrite - CC By Sa

Le lendemain, je constate que j’ai obtenu gain de cause : la vidéo est débloquée. Mais pour combien de temps ? Google n’a pas pris la peine de nous notifier que la vidéo était à nouveau disponible. On pouvait toujours attendre en relevant notre boîte mail.

Theocrite - CC By Sa

Bilan

Google est réactif, mais pas spécialement poli. Pas de notifications lors du blocage de la vidéo, ni lors du déblocage.

La vidéo a été bloquée pendant un certain temps. Combien de temps ? Aucune idée. Mais TF1 a tenté et a réussi à faire censurer la vidéo, peu importe combien de temps, et ce sans rien risquer. C’est un jeu permanent dans lequel les plaignants ne peuvent pas perdre et les internautes ne peuvent pas gagner.

Ce n’est pas une nouvelle, pour TF1 quand il s’agit d’HADOPI, tous les moyens sont bons pour supporter la loi. Que ce soit en inventant un plébiscite lors d’un vote, en censurant son rejet comme nous venons de le voir ou encore en s’occupant des « salariés qui, manifestement, aiment tirer contre leur camp. »

Mais sur YouTube, TF1 ne s’arrête pas à HADOPI. TF1 sort le bulldozer. Je vous invite à rechercher lgl_tf1 dans un moteur de recherche. Celui de nos amis possesseurs de YouTube par exemple, ou bien sur un moteur de recherche libre, vous y trouverez des réactions unanimes d’Internautes énervés, soit parce que lgl_tf1 a bloqué des vidéos de France 2. Soit parce que TF1 a bloqué des vidéos sur lesquelles elle a acquis les droits de diffusions pour une certaine partie du monde, et se passe de demander aux auteurs s’ils autorisent cette rediffusion.

Notes

[1] Telles que garanties par la déclaration des droits de l’Homme et du citoyen, et rappelées par le « considérant n°12 » de la décision n°2009-580 DC du 10 juin 2009 du Conseil Constitutionnel concernant HADOPI 1 par exemple.

[2] Crédit première illustration : Vidberg © LeMonde.fr, reproduite avec l’aimable autorisation de l’auteur. Licence équivalente à une CC-By-NC-ND avec autorisation préalable requise.

[3] Ou peut-être un imposteur, que le chaîne laisserait agir « en son nom » depuis plus de deux ans.




Le contrôle des redirections

Kudumomo - CC BySi les redirections [1] sont à peu prêt aussi vieilles que le web, elles n’étaient, jusqu’à l’apparition des micro-blogs, que rarement utilisées, mises en place par les connaisseurs, lors du déménagement d’un document important.

Dans ce contexte, quand Kevin Gilbertson proposa en 2002 le premier service en-ligne de rétrécissement d’URL (TinyURL.com), permettant de créer à la demande, une redirection depuis une une adresse courte vers l’adresse de son choix, il n’eut qu’un succès modéré. L’initiative tomba presque dans l’oubli, et ce n’est qu’une demi-décennie plus tard, avec l’essor de Twitter que ce service rencontra d’un coup un large public. En effet, le principe de Twitter étant de proposer un blog dont les billets sont plus courts que des SMS, pouvoir réduire une URL devint un enjeu de taille, si j’ose dire. En effet, d’une part certaines URL sont simplement trop longues pour être gazouillées, et d’autre part, une fois l’adresse collée dans un micro-billet il ne reste plus beaucoup de place pour en expliquer l’intérêt.

TinyURL.com fut donc dans un premier temps directement proposé depuis l’interface du site de microblogage pour aider à la rédaction des messages. Puis devant le succès rencontré par cet intermédiaire, de nombreux concurrents vinrent occuper leurs parts de marché, tel que Bit.ly, qui se démarqua par les statistiques offertes sur l’utilisation des liens courts qu’il produit.

Et progressivement, chaque gros acteur du web se mit à proposer son propre service de rétrécissement, pour faire plaisir à ses utilisateurs avec un service techniquement trivial, ne pas dépendre d’un tiers et enfin pour mettre la main, chacun, sur sa parcelle de statistiques d’usage !

Car utiliser un raccourcisseur d’URL revient en fait à ajouter une barrière de péage d’autoroute entre les personnes auxquelles vous communiquez le lien court, et le document que vous souhaitiez porter à leur attention. Bien sûr, c’est une barrière pour laquelle tout le monde est abonné (pour l’instant), et elle ne fait que ralentir un peu le trafic, mais surtout, elle identifie au passage qui l’a franchi, quand et combien de fois.

Or, si cette information était jusque là collectée par l’émetteur du document de destination seulement, elle n’était pas aussi facilement recoupable et monnayable que si c’est un acteur central qui collecte toutes les visites effectuées suivant les recommandations des millions d’utilisateurs de Twitter, de Facebook ou de Google…

Et puis, d’un point de vue pragmatique, au-delà de la seconde d’attente ajoutée après le clic, ou du respect de la vie privée, un autre problème se pose, celui de la pérennité de ces étapes intermédiaires. Aujourd’hui, TinyURL.com se vante de servir des milliards de redirections par mois, mais ce service, qui n’est pas géré par une entreprise, est voué à disparaître, car son nom (qui avait besoin d’être explicite au début) est trop long pour être efficace aujourd’hui. Or, quand les serveurs de TinyURL seront éteints, c’est plus d’un milliard d’adresses qui, d’un coup, ne mèneront plus à rien.

Alors, quand on voit avec quel empressement les entreprises se sont mises à proposer ce gadget en apparence anodin, on peut avoir envie de ne pas se laisser enfermer nous non plus par une compagnie particulière, de suivre cet exemple en s’installant chacun son raccourcisseur d’URL à soi. Après tout, ça ne sera qu’une corde de plus à mettre à l’arc de la NoBox.

Toutefois, la question de la pérennité des redirections mises en place reste posée… En ce premier novembre, il est presque de bon ton de se demander ce qu’on fera du serveur personnel d’un défunt.

Mais pour l’heure, place au détail de l’enfer des redirections vers lequel on nous mène, et qui transforme progressivement le web en maison qui rend fou des 12 travaux d’Astérix… [2]

Le web se dirige-t-il vers un cauchemar de redirections ?

Is the Web heading toward redirect Hell?

22 septembre 2010 – Royal.Pingdom.com
(Traduction Framalang : Zitor, Barbidule, Daria, Goofy, Siltaar)

Google le fait. Facebook le fait. Yahoo le fait. Microsoft le fait. Et bientôt, Twitter le fera.

Nous parlons de la manie qu’ont tous les services web d’ajouter une étape intermédiaire pour échantillonner ce sur quoi nous cliquons avant de nous envoyer vers notre vraie destination. Ça dure déjà depuis un certain temps, et c’est progressivement en train de devenir un enfer de redirections. Cela a un coût.

Du trafic déjà en trop

Il y a déjà beaucoup de redirections en place, auxquelles vous ne songez pas forcément. Par exemple :

  • Chaque fois que vous cliquez sur un résultat de recherche dans Google ou Bing, il y a un passage obligé par les serveurs du moteur de recherche pour analyse avant d’être redirigé vers le site réellement ciblé;
  • Chaque fois que vous cliquez sur un titre dans un flux RSS Feedburner, vous êtes aussi redirigé avant d’arriver à la véritable cible;
  • Chaque fois que vous cliquez sur un lien sortant de Facebook, il y a une étape intermédiaire passant par un serveur de Facebook avant de vous rediriger vers où vous voulez aller.

Et ainsi de suite, et ainsi de suite, et ainsi de suite. C’est, bien sûr, parce que Google, Facebook et les autres sociétés en ligne aiment suivre les clics et le comportement de leurs utilisateurs. Vous connaître est une vraie ressource pour ces sociétés. Cela peut les aider à améliorer leur service, à le monétiser plus efficacement et dans de nombreux cas, ces données elles-mêmes valent de l’argent. Au final ce suivi de clic peut aussi être bon pour les utilisateurs finaux, en particulier s’il permet à un service d’améliorer sa qualité.

Mais…

Les choses sont en train de déraper

S’il ne s’agissait que d’une seule étape supplémentaire, cela pourrait aller. Mais si vous regardez autour, vous vous rendrez compte que ces redirections sont en train de s’empiler, chaque service interceptant des informations sur le clic lors du cheminement vers la destination finale. Vous savez, celle que l’utilisateur a vraiment demandée.

Cela peut vite devenir incontrôlable. Nous avons vu des scénarios où les liens sortants de Facebook, par exemple, vous redirigent d’abord vers un serveur Facebook, puis vers un racourcisseur d’URL (par exemple bit.ly), qui à son tour vous redirige vers une URL plus longue qui elle-même génère plusieurs redirections avant que FINALEMENT vous parveniez à la cible. Il n’est pas rare qu’il y ait plus de trois redirections vers différents sites qui, du point de vue de l’utilisateur, sont du trafic superflu.

Le problème, c’est que ce trafic supplémentaire n’est pas gratuit. Cela rallonge le temps nécessaire pour atteindre l’objectif, et cela rajoute d’autres liens (au sens propre !) dans la chaîne, ce qui peut la briser ou la ralentir. Cela peut même faire apparaitre des sites comme indisponibles alors qu’ils ne le sont pas, simplement parce que quelque chose sur le chemin est tombé en panne.

Et il semble que cette pratique soit de plus en plus répandue sur le Web.

Un exemple récent de cette « mode de la redirection » : Twitter

Vous souvenez-vous de cette vague de raccourcisseurs d’URL qui est venue quand Twitter a commencé à devenir populaire? C’est là que commence notre histoire.

Twitter a d’abord utilisé le déjà établi TinyURL.com comme raccourcisseur d’URL par défaut. C’était un partenaire idéal pour Twitter et sa limite de 140 caractères par message.

Puis vinrent Bit.ly et une pléthore d’autres raccourcisseurs d’URL, qui voulaient eux aussi surfer sur le succès grandissant de Twitter. Bit.ly a rapidement réussi à remplacer TinyURL comme réducteur d’URL par défaut pour Twitter. Grâce à cela, Bit.ly a mis la main sur une foule de données : la liste d’une bonne partie des liens postés sur Twitter, et de leur popularité, chaque clic pouvant être tracé.

Ce n’était qu’une question de temps avant que Twitter ne veuille garder ces données pour lui seul. Pourquoi s’en priverait-il ? Cela lui permet d’avoir le contrôle total de l’infrastructure nécessaire à son fonctionnement, tout en récupérant des informations sur ce que les utilisateurs aiment s’échanger, et ainsi de suite. Twitter a donc créé récemment son propre raccourcisseur d’URL, t.co. Dans le cas de Twitter, cela peut parfaitement se comprendre.

Cela est bel et bon, mais voici maintenant la partie la plus intéressante qui est la plus pertinente pour cet article : d’ici la fin de l’année, Twitter va rediriger TOUS les liens vers son raccourcisseur d’URL, y compris les liens déjà raccourcis par d’autres services comme Bit.ly ou Goo.gl, le raccourcisseur de Google. En canalisant tous les clics vers ses propres serveurs, Twitter va acquérir une connaissance précise de la façon dont son service est utilisé, et de ses utilisateurs. Cela lui donne le contrôle total sur la qualité de son service. C’est une bonne chose pour Twitter.

Mais qu’arrive-t-il quand tout le monde veut un morceau du gâteau ? Redirection après redirection après redirection avant d’arriver à notre destination ? Oui, c’est exactement ce qui se passe, et vous aurez à vivre avec ce trafic supplémentaire.

Voici ce à quoi le partage de liens pourrait ressembler une fois que Twitter aura commencé à soumettre tous les clics à son propre service :

  1. Quelqu’un partage un lien goo.gl sur Twitter, il est alors transformé en un lien t.co.
  2. En cliquant sur le lien t.co, l’utilisateur est alors redirigé vers les serveurs de Twitter pour convertir le lien t.co en lien goo.gl et se voit réorienté dessus.
  3. Le lien goo.gl dirige l’utilisateur vers les serveurs de Google pour y être résolu et ré-orienter enfin l’utilisateur vers la cible qu’il souhaitais atteindre.
  4. Rien n’empêche cette cible de n’être à son tour qu’une nouvelle redirection…

Vous en avez la tête qui tourne, hein ?

Encore plus de niveaux de redirection ?

Il y a un an, nous avons écrit un article sur les inconvénients potentiels des raccourcisseurs d’URL, et il s’applique parfaitement à ce scénario plus général avec de multiples redirections entre les sites. Les conséquences de ces redirections sur les performances, la sécurité et la confidentialité sont les mêmes.

Nous soupçonnons fortement que le chemin pris par Twitter (échantillonner et enregistrer les clics avant expédition vers la cible, avec ou sans raccourcisseurs d’URL) laisse présager des pratiques à venir chez les autres services Web qui ne le font pas déjà.

Et même quand les services principaux ne le font pas, de plus en plus d’intermédiaires et d’applications tierces, comme les raccourcisseurs d’URL, apparaissent tous les jours. L’autre jour, le fabricant d’antivirus McAfee a annoncé la version-bêta de McAf.ee, un raccourcisseur d’URL « sécurisé ». C’est peut-être super, qui sait, mais à la lumière de ce que nous vous avons dit dans cet article, il est difficile de ne pas penser : quoi, encore une autre niveau de redirection ? Est-ce vraiment vers cela que le Web évolue ? Est-ce vraiment ce que nous voulons ?

Notes

[1] Ce mécanisme du protocole HTTP permettant de faire rebondir la navigation vers une autre page au chargement d’une URL.

[2] Crédit photo : Kudumomo (Creative Commons Parternité)




Framasoft annonce deux nouveaux titres dans la collection Framabook

« Le C en 20 heures » - couverture par Alexandre Mory - Creative Commons By SaAprès la traditionnelle mise à jour d’automne du best-seller de la collection Framabook, Christophe Masutti, notre coordinateur de collection, s’est fendu ce matin d’un fier communiqué de presse, dont je vous dévoile ici le contenu en avant-première.

En effet, après de longs mois de labeur au sein de l’association, avec les auteurs, les bénévoles et relecteurs, l’équipe technique de mise en page et l’éditeur, Christophe n’annonce pas un, mais bien deux nouveaux Framabooks, s’ajoutant à la mise à jour complète du « Simple comme Ubuntu ».

Sortir ces deux ouvrages nous a occupé un peu plus que d’habitude, notamment parce qu’il a fallu adapter notre chaîne éditoriale (la formidable application web libre “La Poule ou l’Oeuf”) car la mise en page d’un des ouvrages s’est révélée particulièrement riche et complexe à mettre en œuvre. Mais comme le rappelle avec philosophie l’éditeur Mathieu Pasquini :

Un livre s’écrit à la vitesse à laquelle poussent les arbres dont leurs pages sont faites…

Toutefois, le site Framabook a été mis à jour cette nuit pour accueillir les nouveaux ouvrages, et ces derniers sont aussi disponibles à l’achat chez InLibroVeritas.

Le 7e Framabook sera donc un manuel de formation à la programmation, proposant une méthode intense et originale pour apprendre « Le C en 20 heures ». Sous licence Creative Commons By Sa, il fut rédigé conjointement par Eric Berthomier et Daniel Schang que vous pourrez découvrir plus avant dans la reproduction du communiqué de presse qui suit. « Unix. Pour aller plus loin avec la ligne de commande » - couverture par Alexandre Mory - Creative Commons By Sa

Le 8e Framabook fut quant à lui rédigé par Vincent Lozano et s’intitule « UNIX. Pour aller plus loin avec la ligne de commande ». Comme le précédent livre de Vincent dans la collection Framabook, il est placé sous licence Art Libre.

Avec ces deux nouveaux Framabooks, Framasoft continue résolument sa collection d’œuvres libres, permettant à tout un chacun de soutenir ses talents d’autodidacte en informatique, pour que le monde demain regorge des bidouilleurs inventifs que l’éducation nationale peine à former avec son B2i©.

Et ce n’est pas fini. Comme annoncé avec notre campagne de don “1000 10 1”, l’équipe Framabook est toujours à pied d’œuvre sur d’autres ouvrages qui viendront rapidement compléter la collection. On retrouve ainsi parmi les plus avancés le « Producing Open Source Software » de Karl Fogel, traduit par Framalang, ainsi qu’ « Imagine there is no Copyright » traduit cet été lors d’un Traducthon mémorable aux RMLL et qui attend juste son tour pour être mis en page.

Annonçons encore un mystérieux ouvrage préparé en secret par l’ami MBen et un livre sur l’utilisation du gestionnaire de versions SVN, dont la traduction est elle aussi bien avancée.

Enfin, le comité éditorial de la collection fait actuellement le tri dans les nombreuses propositions d’ouvrages reçues par Framasoft. Tout ne cadre pas toujours avec la convention de la collection, mais déjà deux projets s’annoncent comme particulièrement prometteurs…

Pour l’heure, place au concret, avec une présentation plus détaillée des nouveaux Framabooks, issue du communiqué de presse officiel du coordinateur de la collection.

Framabook n°7 : Le C en 20 heures

« Le C en 20 heures » - couverture par Alexandre Mory - Creative Commons By Sa

Le langage C est un langage de programmation dont l’histoire nous ramène à l’époque de la création d’Unix, durant la première moitié des années 1970. Conçu pour permettre à un même programme de fonctionner sur plusieurs types de machines, ce langage à fois simple et efficace séduisait par la rapidité d’exécution des programmes qu’il permettait de générer, et par sa relative simplicité d’adaptation pour un nouveau type de matériel. Depuis lors, la majorité des systèmes d’exploitation des machines créés ultérieurement utilisèrent ce langage fiable, à la fois proche du matériel et des mathématiques. Il n’est donc pas étonnant de retrouver aujourd’hui ce langage partout, des super-calculateurs aux téléphones portables. Le Logiciel Libre lui doit aussi beaucoup. Quel héritage ! Et quelle longévité. Dans ces conditions, comment apprendre aujourd’hui et en 20 heures seulement, un langage porteur de presque quarante ans d’améliorations (dont le C++) et de développements spectaculaires (dont GNU/Linux) ? C’est la question à laquelle Le C en 20 heures répond, et par la pratique.

Eric Berthomier et Daniel Schang nous font ainsi partager au fil des pages le fruit de leurs expériences pédagogiques et professionnelles en accomplissant un effort de vulgarisation trop rarement rencontré dans la littérature du monde de la programmation. Destiné aux grands débutants, l’ouvrage n’est pas un manuel comme les autres. Son intérêt est d’être parcouru de A à Z en suivant l’adage : « j’apprends le code en écrivant le code ».

Ainsi, Le C en 20 heures n’est pas un ouvrage destiné à prendre la poussière sur une étagère en attendant que l’on s’y réfère un dimanche matin pluvieux. Il a été écrit pour être lu d’un bout à l’autre, dans l’ordre et pendant 20 à 30 heures d’apprentissage (en tout !) où l’on vous suggèrera, par des exercices et des exemples, de programmer tel jeu ou de tester tel calcul en mettant votre imagination au défi. En ce sens, l’ouvrage est orienté vers la pratique de la programmation et l’enseigne sans doute à la manière dont les auteurs l’ont apprise : devant un ordinateur, à essayer de programmer quelque chose.

Les auteurs

Ingénieur en Informatique, Eric Berthomier a débuté par le développement d’applications systèmes en C / C++ / Assembleur. Investi dans le Libre, il réalise alors des missions de développement, d’administration système et réseau et de formation. Depuis 2005, il travaille pour un ministère où GNU/Linux et la sécurité sont ses compagnons de tous les jours. Le C (et l’Assembleur) sont pour lui indispensables à la compréhension d’un système d’exploitation.

Docteur en informatique, Daniel Schang est enseignant-chercheur au sein du Groupe Eseo où il a acquis une longue et riche expérience de l’enseignement des langages informatiques. À l’écoute de ses élèves, c’est pour eux qu’il a pris contact avec Eric Berthomier afin de réécrire ce livre qui, sous sa forme embryonnaire, était un support de cours.

Framabook n°8 : Unix. Pour aller plus loin avec la ligne de commande

« Unix. Pour aller plus loin avec la ligne de commande » - couverture par Alexandre Mory - Creative Commons By Sa

Tout ce que vous avez toujours voulu savoir sur Unix sans jamais oser le demander

Nous sommes désormais des habitués de la formule de Vincent Lozano qui, après son excellent ouvrage sur l’usage de LaTeX, récidive ici avec un manuel sur le système Unix (et – donc – GNU/Linux).

Lors de la création d’Unix, au début des années 70, un de ses concepteurs établit trois règles pour concevoir les composants de la « boîte à outils » qui permit à Unix de s’étendre :

  • Écrivez des programmes qui font une chose et le font bien.
  • Écrivez des programmes qui peuvent communiquer entre eux.
  • Écrivez des programmes qui traitent des flux de texte car c’est l’interface universelle.

Aujourd’hui, Vincent Lozano vous propose à la fois de découvrir ces outils situés « sous le capot » de votre distribution Unix (GNU/Linux en est une) mais aussi de concevoir les vôtres.

Si vous appréciez votre système Unix et que vous pressentez qu’il existe des outils qui rendent votre système programmable, cet ouvrage est pour vous ! Le langage de commande d’Unix vous offre en effet la possibilité de piloter votre système d’exploitation – et donc votre ordinateur – par le biais de scripts. Pour planifier des tâches aussi précises que vous le souhaitez, vous aurez donc le loisir de passer des ordres, à la fois de manière souple et puissante, à votre système informatique.

Dans cet ouvrage vous découvrirez les liens qui unissent l’histoire d’Unix et le mouvement pour les logiciels libres. Vous vous plongerez dans les utilitaires classiques de votre système et apprendrez à les assembler. Vous serez donc à même d’ajouter de nouvelles pièces à la boîte à outils. L’auteur vous guidera également pour que vous parveniez à créer vos propres programmes écrits dans le langage du système d’exploitation : le langage de commande.

L’auteur

Vincent Lozano est maître de conférences en informatique à l’école nationale d’ingénieurs de Saint-Étienne (Énise). Il y utilise GNU/Linux pour l’enseignement des systèmes d’exploitation, de la programmation et des bases de données. Il s’occupe également de l’informatisation du système d’information de l’Énise qui s’appuie sur des systèmes Unix.




« Simple comme Ubuntu » dans sa version 10.10 (.10) Maverick Meerkat

« Simple comme Ubuntu » - couverture par Alexandre Mory - Creative Commons By SaAvec un dépôt légal daté du 10 octobre 2010, soit le 10/10/10, ce qui peut signifier 42 en binaire, cette 9e mouture du « Simple comme Ubuntu » s’approche un peu plus de la réponse à « La grande question sur la vie, l’univers et le reste » telle que définie par Douglas Adams dans Le guide de voyageur galactique.

Toutefois rassurez-vous, si Didier Roche l’auteur de ce Framabook est un geek invétéré et un hacker hors-pair, son livre n’en reste pas moins le Guide du débutant sous Ubuntu, qui veut savoir où cliquer pour faire ce dont il a besoin et comprendre ce qui se passe quand il clique quelque part.

Comme à chaque sortie d’une version d’Ubuntu, tous les 6 mois depuis 5 ans, le « Simple comme Ubuntu » a été revu en détail et en profondeur pour correspondre rigoureusement à la version d’Ubuntu livrée avec le livre lors d’une commande chez InLibroVeritas. Pour cette 9e édition, cela correspond entre autre à la ré-écriture complète du chapitre 2 « Procédure d’installation », ou encore à un accompagnement de la meilleure intégration dans Ubuntu 10.10 des services de microblogage aux outils de communication en voix sur IP et messagerie instantanée embarqués dans la distribution.

Enfin, ce « Simple comme Ubuntu » est la deuxième édition imprimée intégralement en couleur, ce qui est du plus bel effet sur les nouvelles captures d’écrans de cette nouvelle version, notamment celles des jeux vidéo 🙂 Voyez par vous-même avec ces deux extraits des 54 pages du chapitre 9 consacré aux jeux :

« Simple comme Ubuntu » - Didier Roche - page 234 - Creative Commons By Sa

« Simple comme Ubuntu » - Didier Roche - page 236 - Creative Commons By Sa

Voici donc « Simple comme Ubuntu 10.10 » :

« Simple comme Ubuntu » - couverture par Alexandre Mory - Creative Commons By Sa

Et pour finir sans déroger aux traditions, voici le changelog proposé par l’auteur [1] :

  • remplacement de toutes les références de l’ancienne à la nouvelle version, ainsi que le nombre d’inscrits sur le forum ubuntu-fr. Comme d’hab 🙂
  • plus de powerpc, ajout de ARM;
  • support de langue incomplet -> c’est maintenant une boîte de dialogue qui apparaît;
  • précision sur les définitions de pppoe et du câble ethernet;
  • f-spot est remplacé par shotwell;
  • Les “sources de logiciel” se lance maintenant depuis la logithèque Ubuntu et plus depuis de le menu;
  • grand remaniement et réécriture du chapitre 2 : mise à jour de la procédure d’installation, complètement changée pour cette version;
  • précision au chapitre 5 maintenant que le mp3 peut être installé dès l’installation de Ubuntu;
  • mise à jour des informations pour bien insister sur le fait qu’une partition /home n’est absolument pas supplémentaire;
  • chapitre 3: réécriture de la description du menu supérieure (suppression de yelp, explication de l’indicator son et indicateur de message, mis à jour du me menu);
  • Nombreux changements dans le menu Préférences:
    • Chiffrement et trousseaux s’appellle maintenant Mots de passe et clés de;
    • Clavier -> changement léger de l’interface;
    • Ajout de Comptes de messagerie et VoIP et de comptes de microblogage;
    • Ajout de Input Method Switcher et Keyboard Input Methods;
    • Micro-blogage -> Microblogage;
    • Suppression de Partage de fichiers personnels;
    • Ajout de OpenJDK Java 6 Policy Tool;
    • Ajout de Paramètres de messagerie.
  • ajout de détails sur indicateur son, indicateur message et retravail de la description de la partie supérieure;
  • Firefox est maintenant mis à jour à chaque version, même sur des versions stables;
  • Le mode spatial n’est plus le mode par défaut de GNOME depuis 2.30;
  • Extension foxmarks -> Xmarks (+ note bientôt appelé à disparaître);
  • Suppression de Glipper, ajout de Parcellite;
  • Description de la procédure pour ouvrir le lecteur de CD mécaniquement;
  • Le nom des paquets de childsplay a changé;
  • mise à jour des images, photos, etc. ainsi que des typos/”fôtes” corrigées! Merci à la communauté 🙂

Notes

[1] Et que vous pouvez retrouver dans les sources LaTeX de l’ouvrage.




Prix unique du livre, même numérique ?

Michael Mandiberg - CC-by-sa Nouvel exemple du refus des tenants d’industries du siècle dernier de considérer l’ère du numérique (ouverte par l’informatique et Internet [1]) comme une opportunité nouvelle et non comme une menace passagère, les sénateurs examineront bientôt une proposition de loi visant à imposer une recette sociale adaptée à l’économie matérielle d’objets, au commerce que l’on qualifiait encore il y a peu de « virtuel », des œuvres numériques, disponibles en-ligne et à volonté.

Tel est en effet l’objectif de cette proposition de loi : appliquer le prix-unique du livre également sur Internet. Si, naïvement, l’idée peut sembler bonne de prime abord, puisqu’elle a sûrement contribué à sauver les petites librairies françaises, elle dénote surtout une incompréhension chronique par la classe politique et les marchants de culture, de la notion de fichier d’ordinateur, ce support numérique réplicable en un instant et sans véritable coût à l’échelle de la population mondiale.

Sans en arriver aux extrémités répressives qu’instaure la loi HADOPI II, ce nouveau mouvement législatif se traduit par une énième tentative de limitation des fantastiques possibilités d’une économie nouvelle, dans le but de la faire entrer dans le moule rassurant des précédents modèles. Ici encore, au lieu d’explorer et d’exploiter au mieux ce qu’Internet rend possible, le législateur s’entête à refuser le potentiel d’un réseau numérique mondial, en s’entêtant aveuglément à transposer avec le minimum de réflexion possible ce qui marchait bien avant. D’autres pays plus pragmatiques vivent avec le Net, s’y adaptent et connaissent (est-ce lié ?) les plus forts taux de croissance de la planète depuis ces dix dernières années, mais pendant ce temps, nos sénateurs ont à cœur de préserver les recettes du passé, quitte à gâcher, pour un temps, celles du futur.

Si le Framablog parle rarement d’économie, nous vous parlons plus régulièrement d’œuvres libres, partagées par leurs auteurs à grande échelle via Internet. Or, cette loi ignore tout simplement la question et entre en contradiction avec l’essence même des licences libres, confirmant pour le moins que si la voie est libre, la route semble encore bien longue avant que les paradigmes du libre ne soient connus, compris et reconnus en haut lieu.

À l’heure de la sortie imminente de deux nouveaux Framabooks, Framasoft se joint donc aux inquiétudes soulevées par ses partenaires Adullact et AFUL dans leur dernier communiqué commun :

Le prix unique du livre numérique doit-il s’opposer à la création libre ?

14/10/2010 – URL d’origine

L’ADULLACT et l’AFUL s’inquiètent de la proposition sénatoriale de loi sur le prix [unique] du livre numérique, dont la rédaction actuelle menace sans nécessité la création sous licence libre. Leurs représentants au CSPLA s’en expliquent dans ce communiqué.

Nous avons eu récemment connaissance de la proposition de loi faite au Sénat par Mme Catherine DUMAS et M. Jacques LEGENDRE [2] relative au prix [unique] du livre numérique.

Nous comprenons le souci de la représentation nationale de préserver la filière du livre dans le monde numérique [3], en reprenant une formule qui s’est montrée efficace pour le livre imprimé traditionnel [4].

Cependant le monde numérique n’est pas le monde des supports matériels traditionnels et, s’il pose les problèmes que nous connaissons depuis plusieurs années, notamment en ce qui concerne la multiplication des copies illicites, c’est précisément parce qu’il obéit à des lois économiques nouvelles. En un mot : une fois l’œuvre créée, la production de copies peut se faire à un coût essentiellement nul.

Cela n’implique nullement qu’il soit légitime de faire ces copies sans l’accord des titulaires des droits, mais cela implique la possibilité et, de fait, l’existence de nouveaux modèles de création et d’exploitation des œuvres, modèles qui sont tout aussi légitimes que les modèles traditionnels issus du monde de l’imprimé.

Pour ne citer qu’un exemple, l’association Sésamath produit des livres numériques "homothétiques" (selon la terminologie de l’exposé des motifs), disponibles sous licence Creative Commons By-Sa. Cette licence implique que ces livres peuvent être exploités commercialement par quiconque, quelle que soit la forme que pourrait prendre cette exploitation, mais que les livres sont toujours cédés avec cette même licence sans contrainte nouvelle. Cela exclut en particulier toute contrainte de prix, ce qui est essentiel à la dynamique de création mutualisée et de maximisation du public recherchée par les auteurs.

Il ne s’agit nullement d’un phénomène marginal, même s’il est ignoré par certains rapports officiels [5]. Les versions imprimées des livres de Sésamath représentent environ 15% du marché qui les concerne, ce qui est loin d’être négligeable. Ces œuvres participent déjà au rayonnement de la France dans plusieurs pays francophones. C’est manifestement un modèle de création qui se développe : il a d’ailleurs fait l’objet des travaux d’une Commission Spécialisée [6] du Conseil Supérieur de la Propriété Littéraire et Artistique (CSPLA) où nous siégeons tous deux.

Il y a donc tout lieu de s’inquiéter de la compatibilité de la proposition de loi avec ces nouveaux modèles.

Ainsi l’article 2 prévoit la fixation d’un prix par le diffuseur commercial. Certes, les licences ouvertes – par exemple Creative Commons By-Sa – tout en permettant la diffusion gratuite et non commerciale, n’excluent nullement la diffusion commerciale, qu’elle soit le fait des créateurs initiaux ou de tiers. Mais le principe même de ces licences est par nature exclusif de toute fixation de prix puisqu’elles sont choisies par l’auteur précisément pour donner la liberté d’en décider, sans contrôle amont de l’aval de la chaîne de diffusion.

Cette loi n’a pas l’intention, on peut l’espérer, de tuer dans l’œuf ces nouveaux modes de création et d’exploitation, ce qui ne serait guère dans l’intérêt de notre pays, des créateurs concernés ou du public. Il faut donc préciser que la fixation du prix du livre numérique ne s’applique pas aux œuvres numériques libres ou ouvertes. Cela peut être réalisé très simplement par un amendement à l’article 2.3 qui prévoit déjà quelques cas d’exemption, sans aucunement porter atteinte aux modes d’exploitation commerciale que la loi vise à encadrer, au bénéfice des titulaires de droit qui souhaitent une telle protection.

Le monde du numérique et les modèles économiques associés sont complexes et mouvants, et la prudence doit probablement prévaloir avant d’y figer quoi que ce soit. Du moins faut-il préciser avec soin quels objets sont visés par le législateur. Il nous semble important que les nouveaux modèles de création et d’exploitation aient le droit de se faire entendre au même titre que les modèles traditionnels. Il y va de la compétitivité économique et culturelle de notre pays dans un univers bouleversé par le numérique. Le meilleur témoin de l’intérêt économique et social de ces modèles est le soutien que leur apportent les collectivités territoriales par leur adhésion à l’association ADULLACT présidée par l’un de nous.

Le rapport Patino préconise [7] de "mettre en place des dispositifs permettant aux détenteurs de droits d’avoir un rôle central dans la détermination des prix". Nous ne demandons rien d’autre.

Bernard LANG
Membre titulaire du CSPLA
Vice-président de l’AFUL
bernard.lang@aful.org, +33 6 62 06 16 93

François ELIE Membre suppléant au CSPLA
Président de l’ADULLACT
Vice-Président de l’AFUL
francois@elie.org, +33 6 22 73 34 96

Notes

[1] Crédit photo : Michael Mandiberg – Creative Commons Paternité Partage à conditions initiales

[2] http://www.senat.fr/leg/ppl09-695.html

[3] Le rapport de M. Bruno Patino, sur le livre numérique http://www.culture.gouv.fr/culture/actualites/conferen/albanel/rapportpatino.pdf s’inquiéte du moyen d’étendre la loi Lang au numérique (page 45).

[4] Sur ce point, discutable, voir Mathieu Perona et Jérôme Pouyet : Le prix unique du livre à l’heure du numérique http://www.cepremap.ens.fr/depot/opus/OPUS19.pdf

[5] C’est d’autant plus regrettable que les modèles explorés par Sésamath sont cités dans le monde entier comme précurseurs et innovants.

[6] http://www.cspla.culture.gouv.fr/travauxcommissions.html, Commission sur la mise à disposition ouverte des œuvres.

[7] C’est sa quatrième recommandation.




Avec Uniflow, Canon invente la photocopieuse qui espionne, refuse et dénonce

Timshell - CC-by-nd En l’absence de l’habituel maître des lieux
Les lutins du Framablog font bien de leur mieux
Écumant le web, en quête de sujets sérieux
Ils espérent que ces billets vous rendront joyeux
À défaut de nous aider à ouvrir les yeux
Sur des technologies qui derrière un vœu pieu
Menacent nos libertés et nos échanges précieux

« On arrête pas le progrès » aimait à répéter mon grand père, mais aujourd’hui, je me demande ce qu’il aurait pensé des dernières inventions de Canon…

En effet, si l’esprit du hacker est de bidouiller une technologie pour en trouver de nouveaux usages, les grandes firmes s’ingénient elles bien souvent à limiter les possibilités de leurs produits, pour créer une illusion de contrôle.

Dans notre cas, Canon a créé des photocopieuses qui inspectent au plus près les documents qu’on leur donne à reproduire, et s’y refusent si ces derniers contiennent l’un des mots de la liste noire située sur le serveur central des installations Uniflow.

Tout d’abord, ces photocopieuses illustrent exactement la menace qui plane sur la neutralité d’Internet. Imaginez qu’il ne soit plus possible de se parler qu’à l’aide de textes envoyés d’une photocopieuse à une autre et vous aurez un bon aperçu de comment fonctionne Internet. En effet, chaque message y circule, par petits bonds, d’un ordinateur à un autre entre votre machine et celle à laquelle vous tentez d’accéder de l’autre côté du réseau. Chaque machine rencontrée photocopie simplement les messages qu’elle reçoit vers la sortie qui les rapprochera de leur destination. Pour l’instant, les routeurs de l’Internet transportent les messages de manière aussi neutre qu’une simple photocopieuse, sans le moindre soupçon d’analyse de contenu. Mais Canon vient donc de briser la neutralité des photocopieuses, en créant un système de « deep photocopy inspection » bien sûr associés à un système centralisé de censure.

Ensuite, comme le remarquait Benoit Sibaud sur Identi.ca, nous nous trouvons là devant un cas concret d’informatique déloyale, telle que définie par l’April, où des utilisateurs se trouvent confrontés à des systèmes soit-disant « de confiance », et qui sous prétexte de sécurité ne remplissent tout simplement plus la tâche pour laquelle ils sont conçu si les conditions arbitraires d’une entité tierce de contrôle ne sont pas réunies.

Je parlais d’une illusion du contrôle, car comme toujours le moyen mis en œuvre pour « sécuriser l’usage » est aisément contournable, les documents n’étant (pour l’instant) analysés qu’à l’aide d’un logiciel OCR, incapable donc de percevoir les notes manuscrites, ou les mots (volontairement) mal orthographiés.

Alors à quoi bon mettre en place des systèmes aux performances finalement ridicules au regard du niveau stratégique de l’objectif ? Et quel peut être l’objectif d’imprimantes allergiques à certains mots ?

Tout d’abord, déployer un système à l’efficacité embryonnaire c’est toujours faire un premier pas, ça finance la génération suivante et ça piège les non avertis… [1] Ensuite dans le cas présent, on peut pallier les manques du système en contraignant le reste de l’environnement, et si on trouve une application admise par les contrôleurs et les contrôlés ça pourrait même rendre service.

Mais pourquoi empêcher d’imprimer ? Pour pallier, d’une certaine manière, au « trou analogique ». Le trou analogique c’est le nom donné à un phénomène simple : aussi sophistiqué que puisse être le système de protection d’un fichier (chiffrement, DRM), pour qu’il soit lu il faut bien à un moment le rendre présentable pour un humain. Et à partir de là, il est toujours possible de renumériser les données… Un MP3, même plombé par un DRM, quand il finit par être lu, rien ne m’empêche de l’enregistrer avec un dictaphone, si j’ai peur de ne pas m’en souvenir tout seul. Dans notre cas, l’intérêt est donc de combler en partie le trou analogique, en évitant que des copies papiers de documents identifiés comme « secrets » ne soient créées.

Toutefois, ça peut vite devenir comique, si une entreprise empêche l’impression de documents contenant le nom de ses clients par exemple, espérons qu’ils ne traitent pas avec Apple, Orange ou même Canon, sinon ils vont vite finir par ne plus pouvoir imprimer grand chose.

Néanmoins, après les imprimantes qui mentent sur leur niveau d’encre et les imprimantes qui laissent des micro-traces pour s’identifier sur toutes leurs copies, Canon invente aujourd’hui les imprimantes qui choisissent ce qu’elles impriment… [2]

Canon promet une sécurisation à base de mots-clés pour ses scanners et imprimantes

Canon promises keyword-based document scanning and printing security

Alan Lu – 12 octobre 2010 – ITPro.co.uk
Traduction Framalang : Siltaar, Julien R., KooToX, Daria

Canon a fait une démonstration d’Uniflow 5, la dernière version de son système de gestion de documents, capable d’empêcher les utilisateurs d’imprimer ou de copier des documents contenant certains mots, grâce à un système de sécurité intelligent basé sur des mots-clés.

Uniflow est un système de gestion de documents qui permet, depuis longtemps, de contrôler imprimantes, scanners et photocopieurs de manière centralisée. Cela permet de conserver le compte des impressions de chaque utilisateur à des fins de facturation. C’est indispensable dans les professions qui facturent les clients à l’heure ou à la quantité de travail, comme les avocats et les architectes. Le système requiert à la fois un serveur Uniflow sur votre réseau et des périphériques d’imagerie Canon, compatibles Uniflow.

La dernière version d’Uniflow possède un système de sécurité intelligent, basé sur des mots-clés. Une fois configuré par un administrateur, le système peut empêcher un utilisateur d’imprimer, scanner, copier ou faxer un document contenant un des mots-clés prohibés, tel que le nom d’un client ou le nom de code d’un projet.

Le serveur enverra alors par courriel à l’administrateur une copie PDF du document en question, au cas où un utilisateur s’y essaie. Le système peut aussi optionnellement informer l’utilisateur par courriel que sa tentative a été bloquée, mais sans identifier le mot-clé responsable, maintenant ainsi la sécurité du système.

La détection des mot-clés d’Uniflow 5 se base sur un système de reconnaissance optique de caractères (OCR), dont la licence est détenue par la firme belge Iris. Cette technologie est plus communément utilisé pour retranscrire des documents scannés en textes éditable sur ordinateur. Canon Angleterre a confirmé qu’un utilisateur éclairé et déterminé ayant repéré un des mots-clés peut contourner le système en remplaçant une lettre par une autre ou un chiffre ressemblant comme avec « z00 » au lieu de « zoo ».

Néanmoins, l’intérêt de cette fonctionnalité est immédiatement perceptible pour les secteurs traitant des documents sensibles, que se soit pour des raisons légales, concurrentielles ou commerciales. Les représentants de Canon n’ont pu avancer de date quant à la commercialisation des produits Uniflow 5.

Notes

[1] Toute ressemblance avec une loi visant à contrôler les usages sur Internet serait fortuite.

[2] Crédit photo : Timshell (Creative Commons Attribution NoDerivs).