Facebook et Google nous livrent leur version « malbouffe » de l’information

Classé dans : Dégooglisons Internet, G.A.F.A.M. | 9

The Filter Bubble - Eli PariserLes médecins et pouvoirs publics ne cessent de nous interpeller au sujet de notre régime alimentaire : une alimentation variée et équilibrée est in-dis-pen-sable à notre santé, disent-ils en substance.

Et si nous décidions d’accorder la même attention à notre régime informationnel ?

Lorsque nous allons chercher de l’information en ligne, les contenus qui nous sont servis sont-il bien variés et équilibrés, ne contiennent-il pas trop d’informations grasses ou sucrées ?

La question ainsi posée par Eli Pariser dans le texte que nous vous proposons ci-dessous peut paraître étrange au premier abord, mais seulement si l’on ignore comment les grands restaurants d’information du Web que sont Google, Facebook ou Yahoo composent les assiettes qu’ils nous servent.

Imaginez un restaurant qui affinerait en permanence sa carte en fonction de ce que vous avez commandé précédemment et, si vous êtes un habitué, en fonction de ce que vous commandez le plus souvent. Seriez-vous étonné, au final, de ne plus avoir le choix qu’entre un steak-frites, une pizza à la viande hachée et des pâtes à la bolognaise, quand votre voisine de table se voit systématiquement proposer un choix de trois salades composées ? Comment pourrions-nous alors découvrir de nouveaux plats ou tout simplement varier nos menus ?

NB : terminons cette présentation en citant le moteur de recherche DuckDuckGo dont le manifeste exclut toute personnalisation des résultats (ainsi que tout pistage )

Facebook et Google nous livrent de l’information « malbouffe » avertit Eli Pariser

Bianca Bosker – 7 mars 2011 – HuffingtonPost.com
(Traduction Framalang : Antistress et Goofy)

Facebook, Google Giving Us Information Junk Food, Eli Pariser Warns

S’agissant de contenu informationnel, Google et Facebook nous offrent trop de sucreries et pas assez de légumes.

C’est l’avis d’Eli Pariser, activiste politique et précédemment directeur exécutif de MoveOn.org, qui tire la sonnette d’alarme au sujet des modifications du Web opérées par des algorithmes invisibles afin de produire des résultats de recherche personnalisés, des flux d’information et autres contenus taillés sur mesure qui menacent de limiter notre exposition à de nouvelles informations et de restreindre notre champ de vision sur le monde.

Pariser qui se décrit politiquement comme progressiste, racontait à la conférence annuelle TED qu’il avait toujours fait attention à prendre comme amis sur Facebook aussi bien des libéraux que des conservateurs, afin de garder un œil sur les discussions de chaque groupe. Pourtant il constata qu’avec le temps d’étranges choses se produisaient : ses amis conservateurs sur Facebook avaient disparus de son flux d’information. Il réalisa que l’algorithme de Facebook les en avait retirés au motif que Pariser cliquait plus souvent sur les liens de ses amis libéraux que sur ceux de ses amis conservateurs.

Google est également coupable de truquer les résultats affichés en fonction des actions passées de l’internaute. Pariser souligne combien, lors d’une même recherche sur Google, deux utilisateurs peuvent recevoir des résultats complètement différents compte tenu du fait que le moteur de recherche utilise 57 indicateurs propres à l’utilisateur pour modifier et adapter les résultats. « Il n’y a plus de Google générique » relève Pariser.

« Ceci nous conduit très rapidement vers un monde dans lequel Internet nous montre ce qu’il pense que nous voulons voir, mais pas nécessairement ce que nous avons besoin de voir » déclare Pariser au sujet des modifications opérées par la voie des algorithmes.

À cause des algorithmes qui déterminent ce que nous voyons en ligne d’après nos habitudes de navigation, de lecture et les liens sur lesquels nous cliquons, nous risquons d’être confrontés à moins de points de vue, d’être exposé à un champ plus réduit d’opinions et de contenus, ajoute Pariser.

« Si vous prenez tous ces filtres ensemble, si vous prenez tous ces algorithmes, vous obtenez ce que j’appelle une bulle de filtres. Votre bulle de filtres est votre univers d’information unique et personnel dans lequel vous vivez en ligne » déclare t-il. « Ce qui est dans votre bulle de filtres dépend de qui vous êtes et de que vous faites, mais le truc c’est que vous ne décidez pas ce qui entre dedans… Et plus important, vous ne voyez pas ce qui, en fait, s’en trouve rejeté. »

Les entreprises ont présenté la personnalisation de l’information comme une façon de fournir à l’utilisateur des contenus plus pertinents au regard de ses centres d’intérêt. Lorsque Google a lancé la recherche personnalisée auprès de l’ensemble de ses utilisateurs, il a vanté les mérites de cette fonctionnalité en disant qu’elle aiderait les gens à obtenir de meilleurs résultats. Selon le livre The Facebook Effect, Mark Zuckerberg (NdT : le créateur de Facebook) expliquait à son équipe l’utilité du flux d’information de Facebook en ces termes : « Un écureuil mourant dans votre jardin peut être plus pertinent pour vos intérêts du moment que les gens qui meurent en Afrique. ».

Pariser enjoint les responsables techniques d’entreprises comme Facebook et Google représentées à la conférence TED de reconsidérer leur approche afin de créer l’Internet dont nous révons tous, celui qui nous apportera des perspectives nouvelles, alternatives, et qui nous incitera à penser les choses de manière neuve et différente.

« Nous avons vraiment besoin que vous vous assuriez que ces algorithmes incorporent le sens de la vie publique, de la citoyenneté responsable » déclare Pariser. « Le problème est que les algorithmes n’ont pas encore le genre d’éthique intégrée qu’avaient les éditeurs. Donc si les algorithmes vont inventorier le monde pour nous, s’ils vont décider ce que nous pouvons voir et ce que nous ne pouvons pas voir, alors nous devons nous assurer qu’ils ne se sont pas basés uniquement sur la pertinence. Nous devons nous assurer qu’ils nous montrent aussi des choses qui sont dérangeantes ou stimulantes ou importantes. »

Des algorithmes plus intelligents, plus responsables, sont nécessaires pour garantir un régime d’information équilibré, ajoute Pariser.

« La meilleure des éditions nous donne un peu des deux », déclare t-il. « Il nous donne un petit peu de Justin Bieber et un petit peu d’Afghanistan. Il nous donne de l’information légumes et il nous donne de l’information dessert. »

Sinon, avertit-il, nous risquons de consommer trop d’informations fast food.

« Au lieu d’un régime d’information équilibré, vous pouvez finir entouré d’informations malbouffe » conclut Pariser.

9 Réponses

  1. Intéressant.

    Sur le même sujet (et en fait qui parle du même auteur) : http://www.internetactu.net/2011/06

  2. Taneleo tiret-du-6

    Oui, la personnalisation des contenus tend à nous enfermer dans notre bulle en ne nous montrant que ce que nous aimons voir le plus souvent. J’avais dû en faire un article dans une version précédente de mon site. Là je ne retrouve trace que d’un commentaire que j’avais écrit à plusieurs mains il y a un an et demi dans un grand moment de poésie et d’humeur joyeuse : http://www.framablog.org/index.php/

    Dans un autre domaine, mais toujours lié à la qualité de l’information, on peut aussi évoquer le parasitage de l’information par trop d’informations dans une même pas Web. C’est le cas par exemple d’une page d’accueil d’un grand journal de presse : beaucoup de titres, de « chapeaux d’articles », d’images, de publicités, de nombre de commentaires, etc… Il y a bien souvent trop d’informations sur une page Web, ce qui distrait et fatigue. Surtout quand on a un affaiblissement de l’inhibition latente (http://fr.wikipedia.org/wiki/Inhibi… – http://www.talentdifferent.com/le-d…)

    La malbouffe, c’est aussi trop de bouffe.

  3. DuckDuckGo… dommage que les résultats ne soient pas au rendez-vous. Une recherche sur Venelles ne donne quasiment rien de pertinent, comparateur, sites attrape-tout surtout les publicités…

  4. C’est d’autant plus dommage que le Web est une source formidable de pluralisme.

    Une des premières choses que j’ai faite est l’abonnement aux flux RSS du Monde, de Libération et du Figaro ; et de comparer le traitement de l’information. C’est vraiment très instructif !

    Jarno.

  5. Cet article est très intéressant. Merci.

    P.S :
    La recherche DuckDuckGo sur Venelles est très pertinente si dans les Settings, Region = France.

  6. Dans le registre moteurs de recherche, citons également le projet Seeks d’origine française :

    http://www.seeks-project.info/

    Ainsi que le projet Yacy soutenu par la FSF Europe :

    http://yacy.net/

    Les deux ont l’avantage d’être des logiciels libres et décentralisés contrairement à DuckDuckGo si je ne me trompe pas. La centralisation de l’accès à l’information, c’est toujours mauvais pour l’utilisateur sur le long terme…

  7. Je lis cet article mais en réfléchissant, le gars du TED, s’il clickait plus sur ces amis libéraux que conservateurs c’est parce qu’il accordait moins d’importance au point de vue des conservateurs, il avait donc un biais de lecture malgré tout. Biais que les filtres ont renforcés bien sur, mais qui est présent depuis que les médias d’information existent. (Pourquoi les gens écoutent Fox, NBC, TVA, V, etc. en discutant avec eux c’est souvent pour comparer le « bon » avec le « mauvais » quoi qu’il y a parfois de l’intégrité intellectuelle).

    j’comprends par contre qu’avec le temps, tu pourrais avoir de plus en plus de difficulté à trouver de l’information diversifié sur un sujet. Mais, si tu cherches toujours de manière diversifiée, alors, tu devrais toujours avoir accès à l’information diversifiée non ? Ça a plus à voir avec nos penchants qui sont renforcés. Bien sur que ça me dérange, mais, la solution est plus de savoir ce qui est filtré que d’arrêter de filtrer. On devrait alors pouvoir désactiver le filtre de temps en temps si on veut véritablement faire une recherche objective. Et, alors, on aurait une recherche influencée plus sur les spambots/linkfarms de ce monde que par la réelle représentativité des résultats non ?

  8. @ JTM : le problème est, d’une part que ces filtres t’enferment dans une bulle qui te rend ignorant de ce qui se dit à l’extérieur, d’autre part que ces bulles sont créées par des algorithmes purement mécaniques qui augmentent exponentiellement ton exposition à un nombre réduit de sujets qu’ils comptabilisent comme étant tes préférés, et donc réduisent tout aussi exponentiellement ton exposition à d’autres sujets. C’est très différent d’un choix éditorial réalisé par telle ou telle rédaction en son âme et conscience. Là on est plutôt réduits à des rats de laboratoire que l’on stimule à l’excès http://www.psychoweb.fr/articles/ne

  9. Il est amusant de voir la contradiction dans l’argumentaire. On pourrait croire que l’article est contre le fait de personnaliser alors qu’il veut que la personnalisation devienne encore plus « magique ». En effet, l auteur veut juste un systeme capable de deviner par magie que même si il n’exprime pas d’interet pour quelque chose, ca l’interesse quand même. Les gens ayant du trouver des cadeaux de noel pour leur famille savent a quel point cela est difficile et il n’y a pas de formule magique pour ça, juste des données. Mais si on donne pas les bonnes infos, on peut pas trouver les bons résultats.