Le contrôle des redirections

Classé dans : Dégooglisons Internet, G.A.F.A.M. | 24

Kudumomo - CC BySi les redirections [1] sont à peu prêt aussi vieilles que le web, elles n’étaient, jusqu’à l’apparition des micro-blogs, que rarement utilisées, mises en place par les connaisseurs, lors du déménagement d’un document important.

Dans ce contexte, quand Kevin Gilbertson proposa en 2002 le premier service en-ligne de rétrécissement d’URL (TinyURL.com), permettant de créer à la demande, une redirection depuis une une adresse courte vers l’adresse de son choix, il n’eut qu’un succès modéré. L’initiative tomba presque dans l’oubli, et ce n’est qu’une demi-décennie plus tard, avec l’essor de Twitter que ce service rencontra d’un coup un large public. En effet, le principe de Twitter étant de proposer un blog dont les billets sont plus courts que des SMS, pouvoir réduire une URL devint un enjeu de taille, si j’ose dire. En effet, d’une part certaines URL sont simplement trop longues pour être gazouillées, et d’autre part, une fois l’adresse collée dans un micro-billet il ne reste plus beaucoup de place pour en expliquer l’intérêt.

TinyURL.com fut donc dans un premier temps directement proposé depuis l’interface du site de microblogage pour aider à la rédaction des messages. Puis devant le succès rencontré par cet intermédiaire, de nombreux concurrents vinrent occuper leurs parts de marché, tel que Bit.ly, qui se démarqua par les statistiques offertes sur l’utilisation des liens courts qu’il produit.

Et progressivement, chaque gros acteur du web se mit à proposer son propre service de rétrécissement, pour faire plaisir à ses utilisateurs avec un service techniquement trivial, ne pas dépendre d’un tiers et enfin pour mettre la main, chacun, sur sa parcelle de statistiques d’usage !

Car utiliser un raccourcisseur d’URL revient en fait à ajouter une barrière de péage d’autoroute entre les personnes auxquelles vous communiquez le lien court, et le document que vous souhaitiez porter à leur attention. Bien sûr, c’est une barrière pour laquelle tout le monde est abonné (pour l’instant), et elle ne fait que ralentir un peu le trafic, mais surtout, elle identifie au passage qui l’a franchi, quand et combien de fois.

Or, si cette information était jusque là collectée par l’émetteur du document de destination seulement, elle n’était pas aussi facilement recoupable et monnayable que si c’est un acteur central qui collecte toutes les visites effectuées suivant les recommandations des millions d’utilisateurs de Twitter, de Facebook ou de Google…

Et puis, d’un point de vue pragmatique, au-delà de la seconde d’attente ajoutée après le clic, ou du respect de la vie privée, un autre problème se pose, celui de la pérennité de ces étapes intermédiaires. Aujourd’hui, TinyURL.com se vante de servir des milliards de redirections par mois, mais ce service, qui n’est pas géré par une entreprise, est voué à disparaître, car son nom (qui avait besoin d’être explicite au début) est trop long pour être efficace aujourd’hui. Or, quand les serveurs de TinyURL seront éteints, c’est plus d’un milliard d’adresses qui, d’un coup, ne mèneront plus à rien.

Alors, quand on voit avec quel empressement les entreprises se sont mises à proposer ce gadget en apparence anodin, on peut avoir envie de ne pas se laisser enfermer nous non plus par une compagnie particulière, de suivre cet exemple en s’installant chacun son raccourcisseur d’URL à soi. Après tout, ça ne sera qu’une corde de plus à mettre à l’arc de la NoBox.

Toutefois, la question de la pérennité des redirections mises en place reste posée… En ce premier novembre, il est presque de bon ton de se demander ce qu’on fera du serveur personnel d’un défunt.

Mais pour l’heure, place au détail de l’enfer des redirections vers lequel on nous mène, et qui transforme progressivement le web en maison qui rend fou des 12 travaux d’Astérix… [2]

Le web se dirige-t-il vers un cauchemar de redirections ?

Is the Web heading toward redirect Hell?

22 septembre 2010 – Royal.Pingdom.com
(Traduction Framalang : Zitor, Barbidule, Daria, Goofy, Siltaar)

Google le fait. Facebook le fait. Yahoo le fait. Microsoft le fait. Et bientôt, Twitter le fera.

Nous parlons de la manie qu’ont tous les services web d’ajouter une étape intermédiaire pour échantillonner ce sur quoi nous cliquons avant de nous envoyer vers notre vraie destination. Ça dure déjà depuis un certain temps, et c’est progressivement en train de devenir un enfer de redirections. Cela a un coût.

Du trafic déjà en trop

Il y a déjà beaucoup de redirections en place, auxquelles vous ne songez pas forcément. Par exemple :

  • Chaque fois que vous cliquez sur un résultat de recherche dans Google ou Bing, il y a un passage obligé par les serveurs du moteur de recherche pour analyse avant d’être redirigé vers le site réellement ciblé;
  • Chaque fois que vous cliquez sur un titre dans un flux RSS Feedburner, vous êtes aussi redirigé avant d’arriver à la véritable cible;
  • Chaque fois que vous cliquez sur un lien sortant de Facebook, il y a une étape intermédiaire passant par un serveur de Facebook avant de vous rediriger vers où vous voulez aller.

Et ainsi de suite, et ainsi de suite, et ainsi de suite. C’est, bien sûr, parce que Google, Facebook et les autres sociétés en ligne aiment suivre les clics et le comportement de leurs utilisateurs. Vous connaître est une vraie ressource pour ces sociétés. Cela peut les aider à améliorer leur service, à le monétiser plus efficacement et dans de nombreux cas, ces données elles-mêmes valent de l’argent. Au final ce suivi de clic peut aussi être bon pour les utilisateurs finaux, en particulier s’il permet à un service d’améliorer sa qualité.

Mais…

Les choses sont en train de déraper

S’il ne s’agissait que d’une seule étape supplémentaire, cela pourrait aller. Mais si vous regardez autour, vous vous rendrez compte que ces redirections sont en train de s’empiler, chaque service interceptant des informations sur le clic lors du cheminement vers la destination finale. Vous savez, celle que l’utilisateur a vraiment demandée.

Cela peut vite devenir incontrôlable. Nous avons vu des scénarios où les liens sortants de Facebook, par exemple, vous redirigent d’abord vers un serveur Facebook, puis vers un racourcisseur d’URL (par exemple bit.ly), qui à son tour vous redirige vers une URL plus longue qui elle-même génère plusieurs redirections avant que FINALEMENT vous parveniez à la cible. Il n’est pas rare qu’il y ait plus de trois redirections vers différents sites qui, du point de vue de l’utilisateur, sont du trafic superflu.

Le problème, c’est que ce trafic supplémentaire n’est pas gratuit. Cela rallonge le temps nécessaire pour atteindre l’objectif, et cela rajoute d’autres liens (au sens propre !) dans la chaîne, ce qui peut la briser ou la ralentir. Cela peut même faire apparaitre des sites comme indisponibles alors qu’ils ne le sont pas, simplement parce que quelque chose sur le chemin est tombé en panne.

Et il semble que cette pratique soit de plus en plus répandue sur le Web.

Un exemple récent de cette « mode de la redirection » : Twitter

Vous souvenez-vous de cette vague de raccourcisseurs d’URL qui est venue quand Twitter a commencé à devenir populaire? C’est là que commence notre histoire.

Twitter a d’abord utilisé le déjà établi TinyURL.com comme raccourcisseur d’URL par défaut. C’était un partenaire idéal pour Twitter et sa limite de 140 caractères par message.

Puis vinrent Bit.ly et une pléthore d’autres raccourcisseurs d’URL, qui voulaient eux aussi surfer sur le succès grandissant de Twitter. Bit.ly a rapidement réussi à remplacer TinyURL comme réducteur d’URL par défaut pour Twitter. Grâce à cela, Bit.ly a mis la main sur une foule de données : la liste d’une bonne partie des liens postés sur Twitter, et de leur popularité, chaque clic pouvant être tracé.

Ce n’était qu’une question de temps avant que Twitter ne veuille garder ces données pour lui seul. Pourquoi s’en priverait-il ? Cela lui permet d’avoir le contrôle total de l’infrastructure nécessaire à son fonctionnement, tout en récupérant des informations sur ce que les utilisateurs aiment s’échanger, et ainsi de suite. Twitter a donc créé récemment son propre raccourcisseur d’URL, t.co. Dans le cas de Twitter, cela peut parfaitement se comprendre.

Cela est bel et bon, mais voici maintenant la partie la plus intéressante qui est la plus pertinente pour cet article : d’ici la fin de l’année, Twitter va rediriger TOUS les liens vers son raccourcisseur d’URL, y compris les liens déjà raccourcis par d’autres services comme Bit.ly ou Goo.gl, le raccourcisseur de Google. En canalisant tous les clics vers ses propres serveurs, Twitter va acquérir une connaissance précise de la façon dont son service est utilisé, et de ses utilisateurs. Cela lui donne le contrôle total sur la qualité de son service. C’est une bonne chose pour Twitter.

Mais qu’arrive-t-il quand tout le monde veut un morceau du gâteau ? Redirection après redirection après redirection avant d’arriver à notre destination ? Oui, c’est exactement ce qui se passe, et vous aurez à vivre avec ce trafic supplémentaire.

Voici ce à quoi le partage de liens pourrait ressembler une fois que Twitter aura commencé à soumettre tous les clics à son propre service :

  1. Quelqu’un partage un lien goo.gl sur Twitter, il est alors transformé en un lien t.co.
  2. En cliquant sur le lien t.co, l’utilisateur est alors redirigé vers les serveurs de Twitter pour convertir le lien t.co en lien goo.gl et se voit réorienté dessus.
  3. Le lien goo.gl dirige l’utilisateur vers les serveurs de Google pour y être résolu et ré-orienter enfin l’utilisateur vers la cible qu’il souhaitais atteindre.
  4. Rien n’empêche cette cible de n’être à son tour qu’une nouvelle redirection…

Vous en avez la tête qui tourne, hein ?

Encore plus de niveaux de redirection ?

Il y a un an, nous avons écrit un article sur les inconvénients potentiels des raccourcisseurs d’URL, et il s’applique parfaitement à ce scénario plus général avec de multiples redirections entre les sites. Les conséquences de ces redirections sur les performances, la sécurité et la confidentialité sont les mêmes.

Nous soupçonnons fortement que le chemin pris par Twitter (échantillonner et enregistrer les clics avant expédition vers la cible, avec ou sans raccourcisseurs d’URL) laisse présager des pratiques à venir chez les autres services Web qui ne le font pas déjà.

Et même quand les services principaux ne le font pas, de plus en plus d’intermédiaires et d’applications tierces, comme les raccourcisseurs d’URL, apparaissent tous les jours. L’autre jour, le fabricant d’antivirus McAfee a annoncé la version-bêta de McAf.ee, un raccourcisseur d’URL « sécurisé ». C’est peut-être super, qui sait, mais à la lumière de ce que nous vous avons dit dans cet article, il est difficile de ne pas penser : quoi, encore une autre niveau de redirection ? Est-ce vraiment vers cela que le Web évolue ? Est-ce vraiment ce que nous voulons ?

Notes

[1] Ce mécanisme du protocole HTTP permettant de faire rebondir la navigation vers une autre page au chargement d’une URL.

[2] Crédit photo : Kudumomo (Creative Commons Parternité)

24 Réponses

  1. Problèmes de trafic, de privatisation du Web, de confidentialité, mais également de pérennité et d’archivage!
    À ma connaissance, ur1.ca est à l’heure actuelle le seul raccourcisseur public Libre, et nous sommes un certain nombre à l’utiliser allègrement. Mais il est préoccupant de songer à l’avenir de toutes ces URL: non seulement les noms de domaines courts disparaissent, mais les urls raccourcies se rallongent de jour en jour (à mesure que de plus en plus de caractères sont requis). Certes, les URL en UTF-8 vont apporter un peu d’oxygène dans tout cela… mais pour combien de temps?

  2. Malheureusement, ur1.ca reste un système centralisé et donc facilement censurable.

  3. Lineplus

    Solution : des sites de microblogging un peu plus intelligents qui permettraient de lier un lien à un message sans le compter comme des caractères en plus ?

  4. @Lineplus: Exactement ! Et ça semble même tomber sous le sens !

    Déjà le succès d’une technologie qui limite sans raisons les possibilités de nos machines m’étonne au plus haut point, mais en plus, en ayant créé une difficulté artificielle, on arrive sur un système moins pérenne, qui nous ralenti et nous flique !

    Je crois que finalement si, des fois on arrête le progrès.

  5. Un peu de pub pour mon propre article sur les dangers des raccourcisseurs :

    http://www.bortzmeyer.org/probleme-

  6. Idem, je me suis toujours demandé pourquoi Twitter n’avait pas créé une case « url ». Ça n’aurait même pas pris dix minutes à mettre en place, et le problème n’aurait pas été créé (ou pris de telles proportions).

    M’enfin, j’ai de plus en plus l’impression que d’avertir sur ce genre de problématiques revient à pisser dans un violon. Je veux dire, l’immense majorité des utilisateurs de l’Internet n’en n’ont rien à faire. Et ceux qui sont y sensibles ne font rien en majorité. C’est mon sentiment en tout cas.

    Mais je pense que les inconvénients des URLs trop courtes vont s’imposer d’eux-mêmes, entraînant le tout dans les abysses du net. Peut-être que l’on pourrait pousser un peu le destin on écœurant les utilisateurs à force de faire des mini-liens foireux, soit vers des sites sans aucun intérêt, soit en créant des boucles infinies (lien A renvoie vers lien B qui renvoie vers lien C qui renvoie vers lien D qui renvoie vers lien A – mais il doit exister une limite en nombre de redirection possibles non ?). J’avoue ne plus avoir l’âge et le goût de jouer à ces « farces ».

    Rien à voir mais je reste fasciné par cette aptitude américaine a créer ET maintenir des sites qui coûtent un pognon fou et qui ne rapportent rien – souvent parce qu’ils ne valent rien en fait, à part le prix d’une bulle financière (comme Twitter et Facebook cités dans l’article).

  7. Gastlag

    Je n’ai jamais compris pourquoi Twitter (ou identi.ca) ne proposait pas simplement de faire des hyperliens. ça permet de respecter les 140 caractères sans passer par un raccourciceur.
    Enfin maintenant qu’ils se sont rendu compte qu’ils pouvaient se faire un max de blé avec ces raccourciceurs, ça va être dur de revenir à l’hyperlien…

  8. 1g0r’s status on Tuesday, 02-Nov-10 09:26:05 CET

    damned…

  9. Moi, j’utilise ce genre de choses uniquement pour faire passer mes liens Fukung. En effet, une grande partie des personnes que je connais savent désormais qu’il vaut mieux pas cliquer sur un lien ressemblant à
    http://www.fukung.net/v/24844/194e4
    Par contre, si ça ressemble à
    http://tinyurl.com/3x47h5y
    il y a encore quelques personnes qui cliquent :-)

    Ca ne me viendrait jamais à l’esprit d’utiliser un tel service pour des choses importantes. Passer par N intermédiaires, c’est jamais bien. J’ai déjà vu des systèmes de redirection qui affichent des cadres de pub autours des pages, c’est quand même étonnant que quelqu’un utilise un tel système pour envoyer son lien à deux-trois personnes.

  10. réduction/redirection d’urls et microblogging :
    pour éviter la réduction d’URL, ne pas compter les urls dans la limite de 140 caractères est exactement ce que j’ai suggéré à identi.ca (je ne suis pas sur twitter…) , au support et en public :
    en français : http://identi.ca/notice/57306496
    en anglais : http://identi.ca/notice/57306917

    merci à Framasoft pour cet excellent article sur le problème des réductions d’urls

  11. edumoulin

    Je crois qu’il faut distinguer 2 problèmes

    1 – La multiplication d’intermédiaires qui augmente inutilement le trafic et l’utilisation qui peut-être faite des données, pose de vraies questions

    2 – La pérennité des liens créés. Les raccourcisseurs répondaient à l’origine au problème de la longueur des URL générées de manière dynamique par les sites, et qui rendaient difficile à la fois la lecture et les copier/coller sur d’autres contenus (mails, newsgroups…).

    L’utilisation qui en est faite notamment au sein des réseaux sociaux répond surtout à un besoin de rapidité et de lisibilité d’informations transmises en temps réel, et qui n’ont pas vocations à être archivées. C’est peut-être là que réside la vraie question : doit-on tout conserver de ce qui est publié sur internet, et quelles méthode doit-on appliquer pour garantir qu’une information importante soit présente de manière pérènne ?

    Merci en tout cas pour la réflexion apportée par cet article

  12. Concernant la pérennité des redirections, c’est dommageable mais est-ce que cela représente grand chose? Ces liens sont présents à très grosse majorité sur twitter : info de flux sur laquelle 2 jours après il n’y a plus aucun clic
    Les multiples redirections augmente en effet le temps de chargement d’une page, le risque est grand que l’internaute ferme sa fenêtre, c’est pas agréable pour la navigation
    La principale question est à mon avis autour du respect de la vie privée, mais elle se pose pour internet dans sa globalité, les redirections jouant leurs rôle dans ce mécanisme

    Ces redirections sont largement et depuis longtemps utilisées pour tracker les clics sur la publicité en ligne : cela permet de déposer un cookie sur le navigateur de l’internaute si cookie pas encore déposé, puis de tracker l’internaute afin de mesurer des conversions, de le recibler, etc

    Y a 3 points à mon avis :
    – avoir des stats générales (ce qui buzze actuellement, liens populaires, tendances de fond, etc), pouvant être vendu –> pas d’implications sur la vie privée
    – proposer des données analytics (mon lien/ma pub marche-t-elle? les internautes réalisent-ils ce que je veux? etc. service pouvant être offert aux entreprises, sur twitter/facebook, en complément de campagnes pubs) –> implications sur la vie privée, le racourcisseur peut savoir que l’ID Cookie 123456 a cliqué à telle heure, et qu’il a transformé
    – construire des bases de données sur les internautes, pouvant être utilisée pour de la pub ciblé, pour des recommandations (à la amazon, facebook pourrait déjà le proposer, avec clics et like) ou pour revente à un tiers –> idem, implications sur la vie privée

    ça devient encore plus gênant si la société de tracking peut faire le lien entre ID Cookie et nom de la personne, et qu’elle revend ces infos. j’en profite pour recommander ce lien bit.ly ;-) http://bit.ly/cUcnlQ

  13. @mat:
    A mon avis, ce que tu dis s’adapte tout à fait à google analytic. Et comme t’as peut-être une boîte gmail, ils n’ont pas à se creuser la tête pour savoir qui t’es.

  14. j’ai une boite gmail, en effet google sait potentiellement tout de moi car ils mesurent un truc comme 60% des plus gros sites avec google analytics
    pour l’instant, il parait qu’ils croisent pas trop les données de leurs différents services et pas du tout les infos nominatives. par exemple, ils croisent pas la donnée analytics avec gmail, la donnée analytics reste anonyme, mais à l’avenir c’est fort possible (cf. ce graphique… http://online.wsj.com/article/SB100…)
    facebook, c’est un peu pareil avec les likes, et eux ils croisent les données (même si j’avais lu qu’ils effaçaient les données des likes après 3 mois, qui va les contrôler?)

  15. ipl_001

    J’ai rédigé, le 4 novembre, un billet qui traite d’un sujet voisin et un internaute m’a donné l’adresse de celui-ci.
    Merci pour cet excellent billet !

    J’ai intitulé le mien « Echo sur le Web » et il n’est qu’un petit coup de gueule sur les « redirections réelles ». J’abuse en appelant ça des redirections mais je râlais contre les sites de news qui reprenaient d’autres news.
    Plusieurs problèmes :
    – les multiples clics (la une renvoie vers une page dédiée) sur un même site, sur chaque site intermédiaire
    – on a de la difficulté à remonter à l’article original car le « journaliste » donne la référence du site de news qu’il a relayé, lequel relayait aussi l’info d’une autre site de news, etc.
    – les sites de news relaient l’info trouvée sur un autre site de news et si l’on pense aux déformations, simplifications du « téléphone arabe »…

    Je n’ai pas eu le courage de faire le test une troisième fois mais 2 remontées de la chaîne m’ont amené vers 2 articles initiaux différents !!!

    - déformation et appauvrissement de l’info !
    – pas de citation de l’auteur initial
    – perte de temps pour la navigation de page en page en page en page…

  16. @vvillenave: il y a aussi BilboLinks.

    La solution serait de mettre un peut de p2p dans l’histoire, si un nom de domaine n’existe plus il suffirait de le rediriger vers un autre soit en le rachetant soit avec un mode proxy comme déjà proposé par seeks : http://gege2061.homecomputing.fr/co

  17. Ma petite réaction à ce post : http://www.kubx.fr/polemique-sur-le

  18. @ Stéphane Bortzmeyer : ton article fait référence pour beaucoup, on me l’avait conseillé à la suite du billet que j’avais également écrit sur ce thème http://libre-ouvert.toile-libre.org

  19. Effectivement, chargement de page très long, pubs non désirées…information copiée et re-copiée, au final, tronquée
    Résultat, l’internaute que je suis.. ferme la page

  20. « [1] Ce mécanisme du langage HTML permettant de faire rebondir la navigation vers une autre page au chargement d’une URL. »

    Les redirections sont des codes HTTP: http://en.wikipedia.org/wiki/List_o

    On peut les utiliser en HTML via la balise meta, mais ça reste du HTTP.

  21. @Changaco: effectivement. C’est corrigé.

  22. Personne

    Y a-t-il un moyen de connaître le lien qui se trouve derrière une URL courte, et cela sans activer de décompte ou donnée statistique chez l’intermédiaire parasite ?

  23. il me semble avoir vu çà pour Greasemonkey sur firefox:
    http://userscripts.org/scripts/show

    source:
    http://www.korben.info/d0z-me-le-ra

  24. @personne: pour connaitre la « vraie » URL le service http://longurl.org/ permet de traduire les URL raccourcies de pas mal de site.