9 % pour le Parti Pirate à Berlin ! Et si la politique pouvait vraiment être réformée ?

Tobias Wolter - CC byLe Parti pirate allemand de Berlin n’osait espérer dépasser les 5% pour obtenir des sièges lors des élections de dimanche au parlement régional, il en a obtenu près du double en créant une véritable sensation qui va bien au delà des frontières de la cité.

Bien sûr il y a un ensemble de facteurs favorables liés au contexte local qui peuvent expliquer cet incroyable résultat (nature des élections, situation politique générale en Allemagne, dynamisme particulier de la jeunesse de cette ville…). Ce n’est donc pas demain la veille que tous les partis pirates européens auront 10% à toutes les élections.

Il n’en demeure pas moins que, tout comme le succès du Parti pirate suédois aux élections européennes de 2009, la date est à marquer d’une pierre blanche, de celle qui transcende et exalte le champ des possibles.

« Nous allons démontrer que la politique peut être réformée », nous promet ci-dessous le président du Parti pirate allemand, à la suite de ce succès[1].

C’est tout le mal que nous leur souhaitons, d’autant qu’il va sans dire que le logiciel libre n’était pas absent de leur programme de campagne (une campagne hyperactive sur Internet et qui n’a coûté au final que 40 000 euros, soit dit en passant, alors que les autres partis dépensaient des millions).

Hier les indignés de la Puerta del Sol, aujourd’hui le Parti pirate berlinois, demain viendra peut-être le tour de la France qui sait ?

Le parti pirate entre au Parlement de Berlin après une victoire historique aux élections

Pirate Party Enters Berlin Parliament After Historical Election Win

Ernesto – 18 septembre 2011 – TorrentFreak.com
(Traduction Framalang : Don Rico, Duthils, Lolo le 13, Mammig et Ypll)

Pour la première fois, un parti pirate a réussi à obtenir des sièges dans un parlement régional. Avec une estimation de 9% du total des suffrages, le Parti pirate dépasse de 5% le seuil nécessaire pour entrer au Parlement de Berlin et gagne plusieurs sièges. Pour le mouvement international des partis pirates, c’est un deuxième succès important après celui, suédois, des élections européennes de 2009.

Le Parti pirate allemand a remporté une brillante victoire aux élections du Parlement du land de Berlin. Deux heures après la fermeture des bureaux de vote, les premiers résultats indiquaient que les pirates avaient réuni 9% des suffrages. Cela se traduira par l’obtention de quinze sièges au Parlement.

Fondé en septembre 2006, le Parti pirate allemand a déjà enregistré plusieurs succès au cours de son existence relativement courte. Jusqu’à présent, le parti comptait plus de cinquante membres exerçant des mandats dans diverses circonscriptions allemandes, plus que dans tous les autres pays d’Europe réunis. Toutefois, le résultat du scrutin du 18 septembre reste sans précédent.


Jamais un parti pirate n’avait obtenu de siège dans un parlement régional ou un conseil fédéral. Le seuil requis pour obtenir un siège étant de 5%, l’exploit des élections berlinoises n’en est que plus impressionnant.

Les premiers résultats montrent que le Parti pirate a fait le plein de voix essentiellement chez les votants les plus jeunes. Quinze pour cent des électeurs de moins de trente ans ont voté pour le Parti pirate, mais même chez les soixante ans et plus, un faible pourcentage a donné son bulletin aux pirates.

Victoire électorale pour les pirates

Parti Pirate Berlin - Résultats

TorrentFreak a demandé à Sebastian Nerz, président du Parti pirate allemand, ce que ce succès signifiait pour son parti. Il nous a répondu que l’augmentation de son financement et son influence croissante permettront au Parti d’avoir un impact plus grand.

« Pour l’instant, le Parti pirate allemand n’a aucun salarié », explique Nerz. « Tous ceux qui travaillent pour le parti – y compris moi-même – le font en tant que bénévoles. Les députés, eux, sont payés pour leur travail. En outre, ils reçoivent de l’argent de l’État pour payer leurs assistants et leurs collègues. Cela permettra à ces pirates de travailler à plein temps pour le parti, et nous donnera ainsi plus de main d’oeuvre.

« Un autre avantage est que les citoyens et les médias prennent les partis qui ont accès au parlement beaucoup plus au sérieux. Bien des fois on m’a dit « votre parti n’est pas considéré parce qu’il n’a aucun élu ». Suite au succès de ce week-end, le parti sera nettement mieux placé sur ce plan.

De plus, le Parti pirate s’attend à une augmentation de ses membres grâce à son bon score, ainsi que du nombre de personnes travaillant pour le parti. Quant aux idées défendues, le parti se veut aussi transparent que possible, il veut améliorer la protection de la vie privée des citoyens, supprimer les brevets et limiter l’emprise toujours grandissante des organisations exploitant le droit d’auteur.

« Nous allons montrer qu’il est possible de faire de la politique de manière transparente. Jusqu’à maintenant, la politique est un domaine nébuleux et interdit. Les réunions sont tenues à huis clos, les ordres du jour et comptes-rendus sont tenus secrets, les traités non publiés », a déclaré Nerz à TorrentFreak.

« Nous démontrerons qu’il est possible d’informer ouvertement et sans mentir les citoyens de ce qu’il se passe, des alternatives possibles et pourquoi une certaine voie a été choisie. Nous démontrerons que les citoyens peuvent être intégrés dans les processus d’étude des faits et dans les choix politiques. Pourquoi ne pas demander aux citoyens leur opinion avant de décider ? Ça vaut bien un essai ! »

Une chose est sûre. Le Parti pirate a fait un score fantastique aujourd’hui. Avec ce résultat, le Parlement du land de Berlin sentira sans doute le vent frais venant du parti le plus technophile et respectueux de la vie privée. Tous les candidats de Berlin sont prêts et impatients de commencer, d’après le président.

« Pour être bref : Nous allons démontrer que la politique peut être réformée », dit Nerz

Note : nous mettrons à jour les pourcentages au fur et à mesure des résultats

Notes

[1] Crédit photo : Tobias Wolter (Creative Commons By)




Manuel « Introduction à la science informatique » – Commentaires sur les commentaires

La mise en ligne sur le Framablog de l’article Sortie du manuel « Introduction à la science informatique » a naturellement suscité des commentaires, bienvenus, variés et intéressants.

Quelques éléments pour poursuivre le débat entamé.

1) Quelle culture générale scolaire au 21è siècle ?

L’enseignement de spécialité optionnel « Informatique et Sciences du numérique » créé en Terminale S à la rentrée 2012 est un enseignement de culture générale. Comme il y en a d’autres au lycée : mathématiques, histoire-géographie, sciences physiques, philosophie… Il n’a pas vocation à former des spécialistes, cela étant il peut contribuer à susciter des vocations. Il correspond aux missions du système éducatif, à savoir former l’homme, le travailleur et le citoyen.

Les disciplines enseignées évoluent au fil du temps. On ne fait plus de géométrie descriptive en mathématiques mais des probabilités et des statistiques. Le latin et le grec n’ont plus la même place qu’au début du siècle dernier. Les sciences physiques sont devenues discipline scolaire car elles sous-tendaient les réalisations de la société industrielle. Or le monde devient numérique… L’informatique doit avoir sa place dans la culture générale scolaire car elle fait partie de la culture générale de notre époque. C’est un choix que la société fait, doit faire. Car il est clair que l’on ne peut pas tout étudier à l’Ecole. Il faut choisir le « midi qui a le plus de portes ».

Dans les commentaires, un argument nous a quelque peu surpris. Il ne faudrait pas d’informatique à l’École car « cela dégoûterait les élèves ». Le propos vaut-il pour la lecture ? N’apprenons pas à lire aux enfants. Comme cela ils ne seront pas dégoûtés et tous sauront lire. Pas sûr…

Il a été fait état, c’est inévitable, de la comparaison avec la conduite des automobiles. Rappelons que conduire une voiture, en fabriquer et étudier la thermodynamique sont trois activités de natures différentes. Comme l’utilisation des ordinateurs, leur fabrication et la science informatique le sont.

Tout le monde a en tête les débats vifs qui ont accompagné la transposition de la directive européenne DADVSI ou le vote de la loi Hadopi, et du sentiment que l’on a pu éprouver que beaucoup ne savaient pas de quoi ils parlaient. Quand les citoyens s’intéressent au nucléaire ils peuvent peu ou prou se référer à ce qu’ils ont appris à l’école en cours de sciences physiques (atome, courant électrique…). Quand ils s’intéressent aux OGM ils peuvent se référer à leurs cours de SVT. Le problème concernant l’informatique et le numérique est qu’il n’y a pas encore de cours d’informatique, scientifique et technique.

Enseigner une discipline informatique au lycée signifie fondamentalement être en phase avec la société telle qu’elle est devenue.

2) Pourquoi de la programmation ?

Faisons un détour par les mathématiques. Tous les élèves en font, de la Maternelle à la Terminale. Pourtant, bien peu seront chercheurs en mathématiques. Et tous ne seront pas ingénieurs ou professeurs de mathématiques. Ils apprennent à résoudre des équations, chose qu’ils ne feront plus le reste de leur vie. Ils étudient et construisent des fonctions. Pourquoi ? Parce qu’il est important de savoir qu’une grandeur peut dépendre d’une autre grandeur. Que, par exemple, la courbe du chômage indique une progression, éventuellement une accélération de cette progression. Pour s’approprier ces notions, il y a tout un long cheminement avec des appropriations de notions dont on ne se servira plus dans la vie. Mais il reste la culture, à savoir ce qui reste quand on a tout oublié !

Il en va de même pour la programmation. Elle est avec l’algorithmique, la théorie de l’information, l’architecture et les matériels l’un des quatre grands domaines de l’informatique, constituant une clé de voûte où les quatre arcs qui structurent l’informatique se rejoignent, A ce titre elle est déjà incontournable. Elle permet de comprendre ce qu’est l’informatique, de percevoir sa « nature profonde », de s’en imprégner. Pour s’approprier des notions (fichier, protocole de communication, « verrou mortel »…), rien de tel que d’écrire des « petits » programmes.

Cela vaut également pour l’apprentissage des autres disciplines. Encore faut-il que les élèves sachent programmer ! La programmation est un élément de cursus informatique apprécié des élèves, car elle les place dans une situation active et créative, dans laquelle ils peuvent eux-mêmes fabriquer un objet. On constate en effet avec l’ordinateur une transposition des comportements classiques que l’on observe dans le domaine de la fabrication des objets matériels. À la manière d’un artisan qui prolonge ses efforts tant que son ouvrage n’est pas effectivement terminé et qu’il fonctionne, un lycéen, qui par ailleurs se contentera d’avoir résolu neuf questions sur dix de son problème de mathématiques (ce qui n’est déjà pas si mal !), s’acharnera jusqu’à ce que « tourne » le programme de résolution de l’équation du second degré que son professeur lui a demandé d’écrire, pour qu’il cerne mieux les notions d’inconnue, de coefficient et de paramètre. Ces potentialités pédagogiques de la programmation, qui favorisent l’activité intellectuelle, sont parfois paradoxalement et curieusement oubliées par des pédagogues avertis (qui, par ailleurs apprécient les vertus de l’ordinateur et d’internet, outil pédagogique).

De plus, la programmation est une excellente école de la rigueur, de la logique. Vraiment, pourquoi s’en priver ?

3) Formation de culture générale et formations professionnalisantes

Si les disciplines scolaires sont générales et concernent tous les élèves, il n’empêche qu’elles contribuent à donner des fondamentaux que certains retrouveront dans leurs formations ultérieures et leur vie professionnelle. Toutes les disciplines sont des outils au service des autres, et aussi des fins en soi. Cela vaut par exemple pour les mathématiques qui sont au service des sciences physiques ou des sciences économiques. Et pour l’informatique bien sûr. Plus les disciplines sont au service des autres, plus elles deviennent une fin en elles-mêmes. Plus elles sont des composantes majeures de la culture des hommes. Informatique et littérature même combat. Écrire un programme ou écrire un texte sont deux activités d’égale dignité, tout aussi passionnantes l’une que l’autre : une fin en soi !

Une formation structurée sur une longue durée doit être organisée comme une fusée à deux étages : les premières années doivent être consacrées à l’apprentissage de savoirs fondamentaux, puis doivent venir les savoirs spécialisés, qui ont vocation à être directement utilisés dans (les premières années d’) une activité professionnelle. Par exemple la formation d’un médecin consiste à apprendre d’abord (dès l’école primaire, le collège et le lycée) des généralités sur l’anatomie et la physiologie humaine, avant d’apprendre tel ou tel geste chirurgical ou la posologie de tel ou tel médicament. Cette seconde phase de la formation est très variable en fonction du métier que l’on souhaite exercer : les mêmes savoirs spécialisés ne sont pas nécessaires à un ophtalmologiste et un anesthésiste, alors que l’un et l’autre doivent savoir que le cœur est à gauche et le foie à droite ou qu’une cellule humaine contient vingt-trois paires de chromosomes.

Avec l’arrivée de l’informatique au lycée se pose la question de l’identification des savoirs fondamentaux que l’on souhaite partager, non avec ses collègues, mais avec tous. Pour faire partie de la culture générale ces savoirs doivent :

  • avoir une certaine stabilité,
  • donner une image diversifiée, mais cohérente de la discipline,
  • éclairer la vie quotidienne, mais aussi ouvrir de nouveaux horizons,
  • permettre de comprendre comment utiliser des objets mais aussi comment ils sont conçus,
  • être agréables et valorisants à apprendre.

Les besoins croissants en matière d’informatique et de numérique concernent des compétences diversifiées qui évoluent rapidement (outils, langages…), des métiers nouveaux avec peu de formations existantes (web 2,0, e-économie…). Cela signifie qu’il faut distinguer la formation pour tous aux fondamentaux de culture générale informatique, scientifique et technique, dans l’enseignement scolaire et dans l’enseignement supérieur, et les formations professionnalisantes qui, de par les évolutions incessantes des besoins, doivent justement pouvoir s’appuyer sur une solide formation initiale.

Jean-Pierre Archambault
Gilles Dowek




20 ans que sans concurrence Microsoft équipe l’Europe !

Sébastien Bertrand - CC byLes institutions européennes, toujours promptes à donner la leçon, ont peut-être d’autres chats à fouetter actuellement mais il nous semble bon de leur rappeler un passé peu glorieux et un présent scandaleux[1].

Cela fait en effet près de 20 ans que l’on déroule le tapis rouge à la société non européenne Microsoft sans jamais prendre la peine d’évaluer les autres solutions, parmi lesquelles, évidemment, figure le logiciel libre.

Peut-être qu’en 1992, il était hasardeux de choisir autre chose que Windows pour ses postes clients. Mais pourquoi avoir systématiquement reconduit cette forme de partenariat exclusif jusqu’à aujourd’hui alors que parallèlement de réelles et crédibles alternatives voyaient le jour ?

Il est grand temps d’opposer au lobbying un certain bon sens citoyen. Je le dirai à mon député européen la prochaine fois que je le croiserai 🙂

Depuis 20 ans la Commission européenne achète du Microsoft sans concurrence

European Commission buys Microsoft for 20 years without competition

Mark Ballard – 15 août 2011 – ComputerWeekly.com
(Traduction Framalang : Goofy, ZeHiro, Pandark, Lolo le 13)

La Commission européenne achète des produits Microsoft depuis 1993 sans appel d’offre ouvert à la concurrence qui aurait pu proposer des alternatives, selon des documents transmis au magazine Computer Weekly.

Ces documents transmis au magazine Computer Weekly soulevent des questions quant à une politique d’achat qui a permis à un fournisseur unique de régner en maître pendant si longtemps en s’appuyant sur des exceptions législatives habituellement réservées à des circonstances extraordinaires.

Ils soulevent aussi des interrogations quant à la validité des explications officielles fournies par la Commission pour sécuriser ses accords commerciaux avec Microsoft, appelés « procédures négociées ». Le dernier en date, concerne l’acquisition pour environ 50 millions d’euros de licences logicielles pour les 36 000 PC et les infrastructures associées que comptent les 42 institutions européennes, y compris le Parlement Européen et la Cour de Justice.

Karsten Gerloff, président de la Free Software Foundation Europe, a dit que l’accord en cours avec Microsoft était une « honte » pour la Commission Européenne. « Il est effarant de constater que tous les accords passés entre la Commission et Microsoft depuis 1993 ont été conclus sans aucun appel d’offre public » a-t-il déclaré. « Il en résulte que la Commission Européenne est totalement dépendante d’un seul et unique fournisseur de logiciels pour ses outils de bureautique. Il est clair que les lois régulant les procédures d’achat de l’Europe doivent être rapidement mises à jour. Actuellement, celles-ci laissent bien trop de place aux accords négociés et anticoncurrentiels. »

« Ceci montre bien que le marché n’est ni juste ni égal », renchérit Paul Holt, directeur des ventes chez Canonical (NdT : Ceux qui distribuent Ubuntu). Il a ajouté que les accords que Microsoft a signé avec les institutions européennes empêchent celles-ci d’utiliser des standards ouverts qui permettraient de promouvoir la concurrence. Ainsi, Microsoft a pu imposer aux institutions européennes ses propres spécificités techniques.

Un porte-parole de Microsoft a affirmé que l’entreprise ne ferait pas de commentaires. « La Commission est le contractant et eux seuls décident de leur procédure d’achat » a-t-il dit.

Computer Weekly comprend toutefois que Microsoft s’appuie sur la ligne adoptée par le Directoire pour l’Informatique de la Commission Européenne (DIGIT) en réponse aux récentes questions des députés européens à propos de leurs contrats.

Maroš Šef?ovi?, le vice-président de la Commission et commissaire pour l’administration et les relations inter-institutionnelles, qui mène une réforme majeure des Technologies de l’Information et de la Communication dans la Commission Européenne, a déclaré aux députés européens que la Commission s’engageait dans la « promotion de l’interopérabilité » en utilisant des standards. Mais il a indiqué que ces standards pouvaient inclure ceux implémentés par les vendeurs de logiciels commerciaux. Il a démenti que la Commission ait été contrainte de se procurer des produits chez un unique fournisseur.

Le DIGIT affirma en 1992 qu’il était obligé de signer un arrangement privé avec Microsoft parce qu’aucune autre entreprise ne pouvait fournir le logiciel adéquat. Mais la justification officielle de la Commission pour cet arrangement demeure vague. Des procédures similairesen 1996 et 1999 confirment la position de Microsoft comme étant le seul fournisseur de systèmes d’exploitation et d’applications de bureautique pour la Commission.

Depuis 2003 cependant, la justification officielle de la Commission a évolué. La raison invoquée ici est qu’un logiciel alternatif impliquerait une incompatibilité technique et des migrations trop lourdes. Aiinsi il n’y a pas d’autre choix que de continuer à acheter du Microsoft.

La Commission a utilisé la même excuse d’incompatibilité pour justifier des achats sans concurrence avec Microsoft en 2007 et 2011. La justification contredit apparemment le discours de Šef?ovi? qui prétend que la Commission n’est pas pieds et poings liés à Microsoft, et qu’elle s’était engagée résolument dans la voie des standards interopérables.

Un porte-parole du DIGIT a déclaré que les directives concernant les achats de l’Union Européenne avaient changé plusieurs fois ces vingt dernières années, mais que les fournisseurs ont été choisis après une analyse approfondie du marché, des besoins des utilisateurs et du coût des achats.

« Il existe un grand nombre de procédures pour l’achat de biens et de services et tout choix particulier est dûment motivé et explicité. Il résulte d’une analyse poussée de la situation du marché, des besoins des utilisateurs et du coût total de l’acquisition. L’ensemble est mené dans un cadre qui a fait ses preuves, celui de la procédure Gestion des Technologies », a-t-il indiqué dans une déclaration écrite. Les décisions prises ont été soumises à un contrôle interne et sont conformes à la législation européenne.

Il a affirmé avec insistance que la Commission n’était pas contrainte à acheter des produits Microsoft : « Nous avons toujours dit clairement que ce n’était pas le cas, et que nous analysons en permanence les options offertes par le marché ».

Le dernier accord conclu en mai a assuré l’achat de licences pour que l’administration européenne puisse continuer à utiliser une gamme complète de logiciels Microsoft. Elle comprend les systèmes d’exploitation, la suite Office, le logiciel de gestion de base de données SQL Server Entreprise, des outils pour collaborer et gérer des projets ainsi qu’un volet sur la sécurité et le courrier électronique.

Mais Šef?ovi? a créé plusieurs comités de gestion des TIC qui n’ont toujours pas décidé si la Commission devait continuer à utiliser exclusivement des logiciels Microsoft. Ainsi on attend toujours la décision à prendre concernant la mise à niveau vers le système d’exploitation Windows 7, et ce neuf mois après avoir été soumise aux équipes dirigeantes.

Graham Taylor, directeur général d’Open Forum Europe, un groupe de pression activé par Google, IBM, Oracle et Red Hat, a déclaré qu’ils avaient abordé la procédure négociée avec « la plus extrême prudence », sans comprendre pourquoi la Commission l’avait utilisée pour empêcher la concurrence sur le marché du logiciel pour ordinateur de bureau.

Notes

[1] Crédit photo : Sébastien Bertrand (Creative Commons By)




Sortie du manuel Introduction à la science informatique

Introduction à la Science Informatique - CouvertureEn visite en Angleterre, voici ce que disait le patron de Google dans une récente traduction du Framablog : « Je suis sidéré d’apprendre qu’il n’existe même pas d’enseignement de base de l’informatique dans les écoles britanniques aujourd’hui. Votre programme de technologie se concentre sur la manière d’utiliser un logiciel, mais n’explique pas comment il a été conçu. »

Et Slate.fr d’en remettre une couche le 4 septembre dernier dans son pertinent article La programmation pour les enfants: et pourquoi pas le code en LV3 ? : « Lassés d’avoir bouffé des slides de PowerPoint et des tableurs Excel dans leurs jeunes années, les étudiants se sont détournés peu à peu de l’étude de l’informatique confondant, bien malgré eux, l’apprentissage d’applications qu’ils trouvent généralement inintéressantes et celui des sciences computationnelles dont ils ne comprennent même pas l’intitulé. »

Toujours dans le même article : « On fait beaucoup d’esbroufe sur la délocalisation d’activités telles que la création de logiciel, mais ce qui n’est pas clair dans cette histoire c’est où est la charrue et où sont les bœufs. Est-ce que les entreprises délocalisent par ce que cela leur coûte moins cher et dans ce cas nous perdons des emplois sur le territoire, ou bien le font-elles parce qu’elle ne peuvent tout simplement pas recruter ici si bien qu’elles à se mettent rechercher des gens compétents ailleurs ? ».

Owni, quant à lui, va encore plus loin, avec son appel à hacker l’école accompagné du témoignage d’un père qui souhaite que sa fille en soit.

Lentement mais sûrement on prend enfin conscience que l’enseignement de l’informatique est un enjeu fondamental du monde d’aujourd’hui. Il y a ceux qui maîtriseront, ou tout du moins comprendront, le code et il y a ceux qui utiliseront le code créé par d’autres.

C’est pourquoi l’arrivée en France pour la rentrée 2012 en Terminale S de l’enseignement de spécialité « Informatique et sciences du numérique » est une avancée importante que l’on doit saluer comme il se doit.

Tout comme nous saluons ci-dessous la sortie d’un manuel support de cette nouvelle discipline (mais qui pourra également être utile et précieux à tout public intéressé par le sujet). Sous licence Creative Commons il a été rédigé collectivement par certains de ceux qui se sont battus avec force, courage et diplomatie pour que cet enseignement voit le jour (à commencer par Jean-Pierre Archambault que les lecteurs de ce blog connaissent bien).

Peut-être penserez-vous que c’est dommage et pas assez ambitieux de se contenter d’une spécialité pour la seule classe tardive de Terminale S ? (Peut-être jugerez-vous également que la licence Creative Commons choisie par le manuel n’est pas « assez ouverte » ?) Certes oui, mais en l’occurrence nous partons de si loin que l’on ne peut que se réjouir de ce petit pas qui met le pied dans la porte.

Et le Libre dans tout ça ?

Point n’est besoin de consulter les communiqués dédiés de l’April et de l’Aful, mentionnés ci-dessous, pour comprendre qu’il devrait largement bénéficier lui aussi de l’apparition de ce nouvel enseignement, synonyme de progrès et d’évolution des mentalités à l’Education nationale.

Edit du 18 septembre : Il y a une suite à cet article puisque les auteurs, Gilles Dowek et Jean-Pierre Archambault, ont choisi de commenter les nombreux et intéressants commentaires dans un nouveau billet.

Un manuel Introduction à la science informatique

Un manuel Introduction à la science informatique est paru en juillet 2011, destiné aux professeurs qui souhaitent se former avant de dispenser l’enseignement de spécialité « Informatique et sciences du numérique », créé en Terminale S à la rentrée 2012[1]. Il s’adresse aussi potentiellement à d’autres publics souhaitant s’approprier les bases de la science informatique[2].

Edité par le CRDP de Paris[3], ce manuel a été écrit par 17 auteurs[4] et coordonné par Gilles Dowek, directeur de recherche à l’INRIA. La préface est de Gérard Berry, professeur au Collège de France et membre de l’Académie des Sciences. Ce livre est sous licence Creative Commons : paternité, pas d’utilisation commerciale, pas de modification.

Il est composé de 7 chapitres : Représentation numérique de l’information ; Langages et programmation ; Algorithmique ; Architecture ; Réseaux ; Structuration et contrôle de l’information ; Bases de données relationnelles et Web. Les chapitres comportent une partie de cours présentant les concepts, d’exercices corrigés et non corrigés, d’une rubrique consacrée aux questions d’enseignement, et de compléments permettant d’aller plus loin, en particulier d’aborder quelques questions de société en liens avec la révolution informatique.

Le programme des élèves de Terminale S

Ce contenu reprend, sous une forme plus approfondie, les éléments du programme de la spécialité « Informatique et Sciences du numérique » proposée à la rentrée 2012 aux élèves de Terminale S et qui est construit autour des quatre notions fondamentales d’information, d’algorithme, de langage et de machine), notionss qui structurent les grands domaines de la science informatique.

  • Représentation de l’information
    • Représentation binaire, opérations booléennes, numérisation, compression, structuration et organisation de l’information.
    • Ancrées dans les notions étudiées, des questions sociétales seront abordées : persistance de l’information, non-rivalité de l’information, introduction aux notions de propriété intellectuelle, licences logicielles.
  • Algorithmique
    • Des algorithmes simples (rechercher un élément dans un tableau trié par une méthode dichotomique) et plus avancés (recherche d’un chemin dans un graphe par un parcours en profondeur) seront présentés.
  • Langages de programmation
    • Types de données, fonctions, correction d’un programme, langages de description (présentation du langage HTML).
  • Architectures matérielles
    • Architectures des ordinateurs : éléments d’architectures, présentation des composants de base (unité centrale, mémoires, périphériques.), jeu d’instructions.
    • Réseaux : transmission série – point à point – (présentation des principes, introduction de la notion de protocole), adressage sur un réseau, routage.
    • La question de la supranationalité des réseaux sera abordée.
    • Initiation à la robotique

Quid du libre ?

La liberté des usagers de l’informatique, le contrôle des outils qu’ils utilisent supposent qu’ils comprennent et maîtrisent les concepts qui les sous-tendent. Un système d’exploitation, un traitement de texte ou un tableur sont des outils conceptuels compliqués et complexes de par les objets qu’ils traitent et la multitude de leurs fonctionnalités. Le libre, c’est-à-dire le code source que l’on connaît et non pas une approche en termes de « boîte noire » miraculeuse qui fait tout pour vous (curieuse d’ailleurs cette représentation mentale qu’ont certains de la prothèse du cerveau qu’est l’ordinateur, que l’on pourrait utiliser sans la connaître ni la comprendre), s’inscrit pleinement dans la vision qui considère que l’homme, le travailleur et le citoyen doivent avoir une culture générale informatique scientifique et technique.

C’est donc très naturellement que l’APRIL s’est félicité de la création de l’enseignement « Informatique et Sciences du numérique ». Le 5 janvier 2010, dans un communiqué de presse, rappelant qu‘« elle a toujours été favorable à ce que l’informatique soit une composante à part entière de la culture générale scolaire de tous les élèves sous la forme notamment d’un enseignement d’une discipline scientifique et technique », elle soulignait « cette première et importante avancée signe d’une certaine rupture ». Elle mentionnait que « l’expérience de ces dernières années a clairement montré que le B2i ne fonctionnait pas. Son échec prévisible tient notamment à des problèmes insolubles d’organisation, de coordination et de cohérence des contributions supposées et spontanées des disciplines enseignées. De plus ne sont pas explicitées les connaissances scientifiques et techniques correspondant aux compétences visées ».

D’une manière analogue, dans un communiqué le 23 mars 2010, l’AFUL faisait des propositions pour l’Ecole à l’ère numérique parmi lesquelles : « L’informatique devient une discipline à part entière, dont l’enseignement obligatoire dès le primaire est réalisé par des professeurs ayant le diplôme requis dans cette spécialité ou ayant bénéficié d’une formation qualifiante. La gestion des compétences, l’accompagnement des enseignants et la formation initiale et continue font l’objet du plus grand soin. ».

Gilles Dowek et Jean-Pierre Archambault

Remarque : En réponse aux commentaires ci-dessous, les auteurs ont choisi publié un nouvel article qui précise et complète un certains nombres de points évoqués ici.

Notes

[1] On peut le commander en suivant ce lien. On le trouvera également dans les librairies du CNDP, des CRDP et des CDDP.

[2] Parmi ces publics, il y a les étudiants ainsi que les professeurs de la spécialité SIN « Système d’Information et Numérique » du Bac STI2D qui se met en place en classe de Première à la rentrée 2011, les professeurs de technologie au collège, ceux qui expérimentent des enseignements d’informatique dans certains lycées en seconde et/ou en première, ou qui gèrent les parcs informatiques des établissements scolaires.

[3] Avec le soutien de l’EPI et de l’ASTI.

[4] Jean-Pierre Archambault (Chargé de mission au CNDP-CRDP Paris), Emmanuel Baccelli (Chargé de Recherche à l’Institut National de Recherche en Informatique et en Automatique), Sylvie Boldo (Chargée de Recherche à l’Institut National de Recherche en Informatique et en Automatique), Denis Bouhineau (Maître de Conférences à l’Université Joseph Fourier, Grenoble), Patrick Cégielski (Professeur à l’Université Paris-Est Créteil), Thomas Clausen (Maître de Conférences à l’École polytechnique), Gilles Dowek (Directeur de Recherche à l’Institut National de Recherche en Informatique et en Automatique), Irène Guessarian (Professeur émérite à l’Université Pierre et Marie Curie, chercheur au Laboratoire d’Informatique Algorithmique : Fondements et Applications), Stéphane Lopès (Maître de Conférences à l’Université de Versailles St-Quentin), Laurent Mounier (Maître de Conférences à l’Université Joseph Fourier, Grenoble), Benjamin Nguyen (Maître de Conférences à l’Université de Versailles St-Quentin), Franck Quessette (Maître de Conférences à l’Université de Versailles St-Quentin), Anne Rasse (Maître de Conférences à l’Université Joseph Fourier, Grenoble), Brigitte Rozoy (Professeur à l’Université de Paris-Sud), Claude Timsit (Professeur à l’Université de Versailles St-Quentin), Thierry Viéville (Directeur de Recherche à l’Institut National de Recherche en Informatique et en Automatique),




Quand le patron de Google donne la leçon à l’Angleterre sur l’éducation

Rex Pe - CC byLittéraire ou scientifique ? Non, littéraire et scientifique !

La fameuse séparation culturelle française semble également de mise en Angleterre. Et selon le Directeur exécutif de Google, Eric Schmidt, elle est fortement handicapante dans le monde d’aujourd’hui.

Il est quelque part étrange de voir une multinationale faire la leçon à un État. Mais telle est l’époque dans laquelle nous vivons, et le pire c’est que Schmidt a raison. La critique fait mal pour un pays qui a été si innovant par le passé.

Il juge en outre tout à fait incohérent de ne pas enseigner l’informatique à l’école[1] pour comprendre comment les logiciels sont conçus plutôt que de se contenter de savoir les utiliser.

La situation est peu ou prou identique en France. Et nous risquons fort d’accompagner, voire devancer, la Perfide Albion dans sa chute si nous n’y faisons rien[2].

Eric Schmidt, président de Google, critique vertement le système éducatif britannique

Eric Schmidt, chairman of Google, condemns British education system

James Robinson – 26 août 2011 – The Guardian
(Traduction Framalang : DéKa)

Schmidt critique la division entre les sciences et les arts et lettres et affirme que le Royaume-Uni « devrait revenir sur les heures de gloire de l’ère victorienne ».

Le président de Google a très violemment critiqué le système éducatif britannique soutenant que le pays a échoué à exploiter sa position dominante en matière d’innovation technique et scientifique.

Au cours de la conférence annuelle Mac Taggard à Edimbourg, Eric Schmidt a évoqué « une dérive vers les sciences humaines » et a critiqué l’émergence de deux champs antagonistes « se dénigrant l’un l’autre, autrement dit, pour reprendre une expression locale, vous êtes soit un lettré, soit un matheux ».

Schmidt s’en est également pris à Lord Sugar, haut responsable du Parti travailliste et star du programme de la BBC The Apprentice, qui a récemment déclaré au cours de l’émission que les « ingénieurs n’étaient pas de bons commerciaux ». Schmidt a confié au MediaGuardian Edinburgh international TV festival : « Au cours du siècle dernier, la Grande Bretagne a brusquement cessé de former et d’encourager ses polymathes. Il faut à nouveau réunir les sciences et les arts ».

Ce vétéran de la technologie, qui a rejoint Google il y a dix ans pour aider les fondateurs Larry Page et Sergey Brin à développer la société, soutient que l’Angleterre devrait se pencher sur ses « heures de gloire » de la période victorienne pour se rappeler que les deux disciplines peuvent travailler ensemble.

« Il fut un temps où c’était les mêmes personnes qui écrivaient des poèmes et fabriquaient des ponts », dit-il, « Lewis Carroll n’a pas uniquement écrit l’un des contes les plus célèbres au monde. Il était également professeur de mathématiques à Oxford. Et Einstein disait de James Clerk Maxwell qu’il n’était parmi seulement l’un des meilleurs physiciens depuis Newton mais aussi un poète confirmé. »

Les commentaires de Schmidt font écho à ceux de Steve Jobs, qui a révélé cette semaine qu’il cessait son activité au sein d’Apple. Ce dernier a un jour confié au New York Times que « si le Macintosh a eu un tel succès c’est parce que les gens qui ont participé à sa conception étaient des musiciens, des artistes, des poètes et des historiens, qui se trouvaient être également d’excellents informaticiens ». Schmidt a rendu hommage à la si réputée innovation britannique, rappelant que le Royaume-Uni avait « inventé les ordinateurs aussi bien en théorie qu’en pratique », avant de souligner que le premier ordinateur de bureau « a été construit en 1951 par J. Lyons, originellement une chaîne de magasin de thé ».

« Cependant », dit il, « le Royaume-Uni n’a pas réussi à concrétiser ses idées pour créer de durables industries dominantes sur le marché ».

« Le Royaume-Uni est le berceau de temps d’inventions liées au médias. Vous avez inventé la photographie. Vous avez inventé la télévision », dit-il, « Pourtant aujourd’hui aucun des grands leaders de ces deux domaines ne provient du Royaume-Uni ». Et d’ajouter : « Merci pour vous innovations et vos brillantes idées. Vous n’en tirez cependant aucun bénéfice à l’échelle mondiale ».

Selon lui, les start-ups britanniques d’une certaine dimension ont toujours fini par se vendre à des sociétés étrangères, alors que c’est le contraire qui devrait se produire. « Le Royaume-Uni apporte un réel soutien à ses petites et moyennes entreprise, mais il n’y a pas grand intérêt faire germer des milliers de graines si c’est pour les laisser dépérir ou les transplanter à l’étranger. Les entreprises britanniques ont besoin d’être défendues pour pouvoir se faire une place sur le marché international, sans avoir à se vendre à des sociétés étrangères. Si vous ne relevez pas ce défi, le Royaume-Uni sera toujours le berceau de l’invention, mais pas du succès à long terme. »

Schmidt a expliqué qu’à force de ne pas enseigner la programmation à l’école, le pays inventeur de l’ordinateur était en train de « se débarrasser d’un important héritage informatique ». « J’étais sidéré », dit-il, « d’apprendre qu’il n’existe même pas d’enseignement de base de l’informatique dans les écoles britanniques aujourd’hui. Votre programme de technologie se concentre sur la manière d’utiliser un logiciel, mais n’explique pas comment il a été conçu. »

Barack Obama a annoncé en juin que les Etats-Unis formeraient 10 000 ingénieurs en plus par an. « J’espère que d’autres vont suivre. Le monde a besoin de plus d’ingénieurs », a continué Schmidt. « Pour que les entreprises innovantes britanniques puissent s’épanouir dans l’avenir digital, vous allez avoir besoin de gens capables de comprendre toutes ses facettes. Prenez exemple sur les Victoriens et ignorez les préjugés d’un Lord Sugar : Intégrez des ingénieurs dans vos sociétés à tous les niveaux, même les plus élevés. »

Notes

[1] Crédit photo : Rex Pe (Creative Commons By)

[2] On pourra également lire l’article de Slate.fr La programmation pour les enfants: et pourquoi pas le code en LV3 ?




Les enfants Montessori et le logiciel libre partagent de nombreux points commmuns

Brian Glanz - CC by-saNée dans un quartier pauvre de Rome il y a plus d’un siècle, l’originale pédagogie Montessori n’a jamais cessé d’essaimer et connaît même un fort regain d’intérêt à l’aube de ce nouveau millénaire qui nous demande une solide capacité d’adaptation aux changements.

Les fondateurs de Google ont été dans une école Montessori. Et le créateur du cèlèbre jeu SimCity en parle en ces termes : « Montessori m’a enseigné la joie de la découverte. Cela m’a montré que l’on pouvait s’intéresser à des théories complexes, comme celles de Pythagore par exemple, en jouant avec des cubes. Il s’agit d’apprendre pour soi-même plutôt que de recevoir l’enseignement du professeur. SimCity est directement issu de Montessori – si vous donnez aux gens ce modèle de construction des villes ils en tireront les principes de l’urbanisme ».

Michael Tiemann, figure du logiciel libre travaillant chez Red Hat mais aussi jeune papa, tente ici de rapprocher les deux domaines parce qu’il y voit de nombreux points communs. L’une de ses hypothèses est qu’un enfant qui aura suivi une méthode Montessori sera plus à même de comprendre, s’intéresser et s’impliquer dans le logiciel libre[1].

Par extension et extrapolation, sera-t-il plus à même de comprendre, s’intéresser et s’impliquer dans le monde d’aujourd’hui mais surtout de demain ?

Remarque personnelle : Je constate que de plus en plus de parents « bobos de gauche urbains » placent leurs enfants dans des écoles privées Montessori, pour l’épanouissement général de l’enfant mais aussi pour échapper à la carte scolaire et l’école publique du quartier.

Montessori et la voie de l’Open Source

Michael Tiemann – 12 août 2011 – OpenSource.com
(Traduction Framalang : ZeHiro et Mammig2)

Montessori and the open source way

J’ai lu avec grand plaisir l’article de Steve Denning « Montessori est-il à l’origine de Google et Amazon ? ». Son argumentaire est solide, il s’appuie sur de nombreux faits scientifiques, et il expose les résultats remarquables que l’on peut obtenir quand nous pouvons Faire confiance à l’enfant. Il écrit si bien et de façon si claire qu’il est inutile que je répète ses propos, vous pouvez (et devriez !) lire directement son article. Mais nous pouvons le compléter, en particulier en comprenant comment les principes et la philosophie de l’open source sont si proches de la méthode éducative de Montessori.

C’est en tant que parent, et assez tardivement, que j’ai découvert l’éducation Montessori. Au début, je ne connaissais strictement rien aux travaux de Montessori, mais l’école de ma fille prenait très au sérieux ses écrits et j’ai ainsi commencé à voir les liens profonds et étroits entre des activités scolaires en apparence simples. Après avoir lu La science derrière le génie, le schéma complet m’est apparu plus clairement, et depuis je suis devenu un fervent partisan de la méthode Montessori.

La thèse Faire confiance à l’enfant, développée par Montessori, repose sur l’idée d’accompagner le développement de l’individu. Montessori a montré que lorsque des enfants sont privés de la possibilité de faire leurs propres choix, alors leur personnalité ne se développe pas complètement, et ils peuvent dépendre beaucoup trop des autres pour prendre des décisions les concernant. Par analogie, l’open source permet à tous les participants, qu’ils soient utilisateurs, développeurs, distributeurs ou mainteneurs de devenir de vrais contributeurs. Cette opportunité encourage non seulement à améliorer le logiciel (dont la qualité peut être perçue comme 100 fois supérieure à celle des logiciels propriétaires), et le plus important est qu’il encourage également les individus à s’améliorer. C’est ce que j’ai pu constater en étant dans l’open source depuis plus de vingt ans et en tant que parent Montessori depuis dix ans.

“Faire confiance à l’enfant” ne se limite pas à observer ce que fera un enfant dans le cadre d’un programme éducatif imposé. Dans l’éducation Montessori, tout l’environnement est disponible pour étudier, et les enfants sont encouragés à passer du temps à l’extérieur, pour observer, inventorier, s’interroger, et chercher les connaissances nécessaires pour répondre à leurs questions. La démarche scientifique est modulaire et évolutive, c’est à dire que des résultats sont obtenus à partir de résultats qui proviennent eux-mêmes d’autres résultats.

Ces résutats scientifiques doivent être reproductibles ou bien ils ne sont pas scientifiquement acceptables. De façon similaire, la modularité naturelle des logiciels open source fait qu’ils deviennent eux-même une forme de science de la programmation. Les modules peuvent être aussi librement utilisés que les résultats scientifiques peuvent être librement reproduits. Et tout comme un grand scientifique essayera de rendre ses résultats aussi simples et accessibles que possible, il existe une forme de reconnaissance similaire pour ceux qui écrivent des logiciels qui sont le plus possible généralistes, portables, et techniquement transparents.

Une valeur primodiale de la méthode Montessori est que l’apprentissage devrait être l’affaire de toute une vie. Denning paraphrase ceci en disant que l’éducation n’est pas une destination mais un voyage. Denning observe également que ceux qui voient dans l’obtention de leurs diplômes universitaires le boût du chemin, se retrouvent dans une impasse en cas de changement. Pour ceux qui envisagent l’apprentissage comme un exercice de longue haleine, alors le changement est simplement une nouvelle opportunité d’apprendre. De la même façon, les logiciels open source ont tendance à avoir un avenir ouvert et en perpétuel développement. De nombreux logiciels et frameworks propriétaires s’élèvent puis chutent car ils sont conçus avec une idée d’achèvement. Au contraire, les logiciels open source sont constament re-écrits, re-inventés et leurs objectifs modifiés. En regardant l’évolution de Linux au court des vingt dernières années je me suis dit : a-t-il déjà existé un système d’exploitation qui ait autant évolué, aussi rapidement et soit allé aussi loin ? Voilà tout le génie d’une vision de l’apprentissage à long terme.

Un dernier point : Les enfants Montessori sont-ils enthousiastes à l’idée de mettre les mains dans le code source ? La réponse evidente vous fournira, s’il en était besoin, une ultime preuve des atomes crochus entre Montessori et l’open source.

Notes

[1] Crédit photo : Brian Glanz (Creative Commons By-Sa)




Aurions-nous un train d’avance sur l’organisation du monde de demain ?

Victor Bezrukov - CC byIl est désormais acquis qu’une expérience de contributeurs dans une ou plusieurs communautés du logiciel libre est un atout dans le secteur professionnel informatique. Mais, dans ce monde qui bouge et qui commence à mettre de l’« open » à toutes les sauces, elle pourrait l’être également bien au-delà.

C’est pourquoi il est bon d’encourager les jeunes à se lancer et participer. C’est pourquoi aussi il est proprement scandaleux que les instances éducatives françaises continuent superbement d’ignorer le logiciel libre et sa culture.

PS : Oui, je sais, ni le titre, ni mon intro, ni la photo[1] ne collent parfaitement avec la traduction qui va suivre, mais bon un peu quand même ! Et puis le titre est joli non ? Vous auriez préféré « Les winners de demain sont dans le logiciel libre » ? Non quand même pas !

Sur un difficile marché du travail, votre expérience dans le monde de l’open source pourrait être un atout à plus d’un titre

In a tough job market, your open source experience may be an asset in more ways than one

Chris Grams – 16 août 2011 – OpenSource.com
(Traduction Framalang : Poupoul2 et Marting)

Cela vous ressemble-t-il ?

Depuis longtemps, vous utilisez des logiciels open source ou contribuez à des projets open source. Vous utilisez peut-être régulièrement des outils open source dans votre activité professionnelle, ou encore préférez-vous seulement vous amuser avec, pour le plaisir ou pour maitriser de nouvelles compétences.

Vous êtes connus pour raconter des histoires (peut-être véridiques) qui montrent que vous appartenez au monde de l’open source depuis longtemps (de « Je me souviens avoir téléchargé la première version de Fedora » à « Je me trouvais dans la pièce où le terme open source a été inventé »). Mais plus important encore, vous vous considérez comme un membre actif d’une ou plusieurs communautés open source.

Pensez-vous que le temps passé à contribuer à ces communautés open source pourrait être plus qu’une bonne expérience technologique ? Qu’il pourrait vous préparer à des emplois qui n’ont aucun rapport avec l’usage ou la fabrication du logiciel ?

J’ai étudié l’histoire et les sciences politiques à l’université. Non parce que je voulais devenir politologue ou historien, mais parce que, enfin… en fait je ne le sais pas vraiment. Mais au final, je suis réellement heureux d’avoir étudié ces matières.

Pourquoi ? Elles m’ont apporté des tonnes d’expérience lorsque je faisais de la recherche ou que j’écrivais, elles m’ont appris à organiser efficacement mes idées et mes pensées. Bien que je ne me rappelle pas comment Alexandre le Grand a battu les Perses à la bataille d’Issos et que je ne sois plus capable de réellement comparer les points de vue de Rousseau et Locke, j’utilise de nombreuses compétences acquises lorsque j’étudiais quotidiennement ces sujets.

Au risque d’avoir l’air de faire de la publicité pour une éducation aux arts libéraux, permettez-moi d’aller plus loin.

Pendant que vous avez joyeusement participé à des communautés open source parce que vous aviez besoin d’un morceau de logiciel ou que vous souhaitiez le rendre meilleur, il se pourrait que vous bénéficiez d’un effet secondaire important. Vous pourriez avoir acquis une expérience de la gouvernance des organisations du futur.

Au cours des quelques années passées, j’ai eu la possibilité de travailler avec des organisations de différentes industries, dont la finance, l’éducation, les services, l’hôtellerie, et même dans des environnements gouvernementaux ou non gouvernementaux. Nombre d’entre-elles sont occupées à explorer comment elles peuvent être plus compétitives, grâce à l’utisation de techniques que nous, dans le monde de l’open source, avons déjà mises en œuvre avec succès.

Par exemple, certaines souhaitent tester des projets collaboratifs à grande échelle, impliquant des participants qui ne sont pas membres de leurs organisations. D’autres veulent savoir comment créer des méritocraties internes où les gens se sentent investis et où les meilleures idées peuvent venir de n’importe où. D’autres encore souhaitent démarrer des relations plus riches avec la communauté de ceux qui se soucient de leurs organisations. Si vous êtes un lecteur d’opensource.com, vous nous avez vu mettre en valeur de nombreux exemples dans les affaires, les gouvernements, l’éducation, la santé ou autres.

Ces organisations ont beaucoup à apprendre de ceux d’entre vous qui ont déjà une expérience pratique réelle dans de véritables communautés.

Dans son libre Outliers, Malcolm Gladwell a introduit l’idée que ceux qui sont devenus des sommités mondiales dans leur art (il cite comme exemples Mozart, Steve Jobs et les Beatles) y sont parvenus en partie parce qu’ils ont été capables de le pratiquer de manière démesurée avant les autres dans leur domaine. Selon les recherches que Gladwell cite dans son livre, une personne a besoin de 10000 heures de pratique pour atteindre la maîtrise.

À combien êtes-vous de ces 10000 heures de participation dans le monde de l’open source ? Si vous avez passé 40 heures par semaine dans des communautés open source pendant 5 ans, vous avez peut-être déjà acquis vos 10000 heures.

Mais même si vous n’avez pas encore vos 10000 heures, je crois que vous en savez déjà beaucoup sur les modes de fonctionnement des communautés open source.

Ainsi, si vous croyez que les organisations du futur pourraient être gouvernées grâce aux principes actuellement utilisés avec succès dans les communautés open source, et que vous y avez une copieuse expérience de contribution, pourriez-vous avantager une organisation qui recherche des moyens plus efficaces, pour être plus compétitive ? Et pourriez-vous être un atout pas uniquement par vos compétences technologiques open source, mais également grâce à votre état d’esprit open source ?

Un exemple : Mes amis Dave Mason et Jonathan Opp, qui totalisent chacun bien plus que 10000 heures d’expérience dans le monde de l’open source, ont récemment fait leur entrée dans le concours Harvard Business Review / McKinsey M-Prize dans la catégorie Management innovant avec un hack profondément inspirée par leur expérience dans l’open source.

Leur idée ? Prendre le principe du « fork » tel que pratiqué dans les projets de développement open source et l’appliquer au management des organisations (tous les détails de leur idée sont ici). Leur bidouille « Prête à forker » a récemment été sélectionnée dans une liste de 150 propositions soumises par des gens du monde entier comme l’une des 20 finalistes du M-Prize. Plutôt impressionnant.

Alors pensez-y : au-delà de votre expérience technologique, qu’avez vous appris d’autre en contribuant à des communautés open source, qui pourrait avoir de la valeur pour un employeur potentiel ? Y a-t-il des compétences et des manières de penser que l’open source vous a enseignées qu’il serait bon de valoriser dans un entretien d’embauche, ou comme argument pour une promotion ou un nouveau poste ? Commencez à voir votre expérience open source comme un nouvel ensemble de compétences en matières de pensée et de travail, qui pourraient être très demandées par les organisations qui voudront rester compétitives dans le futur.

En agissant ainsi, vous pourriez vous ouvrir des opportunités intéressantes que vous n’auriez pas envisagées auparavant.

Notes

[1] Crédit photo : Victor Bezrukov (Creative Commons By)




La neutralité du Net, par Jean-Pierre Archambault

Desbenoit - CC by - Wikimedia Commons« La neutralité du Net ou la neutralité du réseau est un principe qui garantit l’égalité de traitement de tous les flux de données sur Internet. Ce principe exclut ainsi toute discrimination à l’égard de la source, de la destination ou du contenu de l’information transmise sur le réseau. »

Telle cette introduction Wikipédia ou cette illustration ci-contre, cela semble simple a priori.

Mais si l’on veut mieux la comprendre et en appréhender ses enjeux, le format Twitter ne suffit plus (surtout en cette période trouble où l’illimité pourrait prendre fin en France)

C’est dans ce but que nous publions un nouvel article de Jean-Pierre Archambault qui n’a pas son pareil pour nous présenter progressivement et limpidement un problème complexe 🙂

Et d’achever ainsi son propos : « Diderot et d’Alembert ont peut-être rêvé à un outil miracle faisant accéder en un tour de main tous les humains à toute la connaissance… L’enjeu est de conserver leur rêve devenu réalité. »

La neutralité du Net

URL d’origine du document

Jean-Pierre Archambault – juin 2011 – Association EPI

Le numérique est partout. Les débats sociétaux qu’il suscite se multiplient. Ainsi celui sur la neutralité du Net qui s’est installé de plain-pied dans l’actualité. Deux raisons principales sont à l’origine de ce débat : l’accroissement du trafic et la montée de questions juridiques et marchandes. S’interpénètrent des questions scientifiques, techniques, juridiques, économiques, commerciales, politiques, ainsi que celles de la liberté d’expression et de la citoyenneté, géopolitiques.

Le trafic sur internet ne cesse de croître, une évidence que cette rançon du succès ! La vidéo, gourmande en bande passante, sature les réseaux. Le marché mobile des terminaux explose. Les infrastructures doivent évoluer et se développer, le haut débit en premier lieu. Qui doit payer ? Qui pourrait payer ? Des mesures de discrimination, blocage et filtrage (pour les flux illicites), antinomiques avec la philosophie du Net, sont mises à l’ordre du jour, issues de problématiques comme la lutte contre la cybercriminalité, les modèles économiques de l’immatériel, des industries culturelles. La neutralité du Net rencontre ici les débats qui ont accompagné la transposition de la DADVSI, la loi Hadopi… La question se pose également de savoir si le Net est vraiment neutre. Et si la vision d’un cyberespace « idéal » et insensible aux réalités géopolitiques de la planète est réaliste et pertinente.

Un réseau de réseaux

Internet est un réseau de réseaux (de beaucoup de réseaux, grande distance, intranets, locaux) en trois couches : une couche physique (le fil de cuivre des réseaux téléphoniques, la fibre optique…), une couche logique (les logiciels, les protocoles d’internet) et des contenus[1]. Les câbles et les réseaux qu’ils interconnectent appartiennent à l’État ou à des entreprises privées. Les ordinateurs au sein du réseau fournissent un service de base – le transport des données – avec des fonctions très simples nécessaires pour les applications les plus diverses. L’intelligence et la complexité, à savoir le traitement de l’information, sont situées dans des ordinateurs à la lisière du réseau.

La philosophie d’internet repose fondamentalement sur l’absence de discrimination dans l’acheminement des flux et dans le fait de pouvoir, pour tout un chacun, accéder librement au réseau sans avoir à en demander la permission à une autorité. Des travaux montrent qu’un réseau d’information public est d’efficacité maximale s’il aspire à traiter tous les contenus, sites et plates-formes, de manière égale[2].

Cette architecture favorise l’innovation. En effet, les inventeurs ont seulement besoin de connecter leurs ordinateurs, sans qu’il faille modifier ceux de l’intérieur. La structure d’internet n’est optimisée pour aucune application existante spécifique, en conséquence le réseau est ouvert à toute innovation non prévue à l’origine. Il est neutre, au sens où un propriétaire du réseau ne peut pas sélectionner des données au détriment d’une nouvelle structure innovante qui menace une application en situation dominante. Les créateurs n’ont pas besoin d’obtenir une permission de quiconque pour développer une nouvelle application. Les opérateurs réseaux qui font circuler les paquets d’informations ne doivent pas y toucher. Sauf cas de force majeure, comme une congestion de réseau ou une attaque, ils doivent les transporter sans discrimination que ce soit, selon la source, la destination ou le type de message auquel le paquet appartient (données, voix, audio, vidéo). Ce principe est étendu aux services et applications, ce qui interdit les pratiques commerciales de distribution exclusive, d’exclusion et de traitement prioritaire au sein des offres internet.

D’autres réseaux fonctionnent « comme internet » : le réseau électrique auquel tout un chacun peut se connecter pourvu que son équipement corresponde aux normes du système, le réseau autoroutier car, à partir du moment où la voiture a été homologuée et où le conducteur a son permis de conduire, le concessionnaire de l’autoroute n’a pas à savoir pourquoi ni quand l’usager emprunte celle-ci.

Internet repose sur des standards ouverts de formats de données (HTML pour écrire des pages web) et de protocoles de communication (TCP/IP, HTTP). Il fonctionne à base de logiciels libres : Apache, SendMail, Linux… Il est donc difficile de verrouiller le réseau par la pratique du secret. Les logiciels libres contribuent à construire une plate-forme neutre. Ils la protègent par des licences comme la GPL et la diffusion du code source, garantissant aux développeurs qu’elle le restera dans l’avenir.

Au-dessus du réseau internet « se répandent à grande vitesse des applications du web comme les réseaux sociaux, le commerce électronique, l’usage des smartphones ou des tablettes, les blogs, les chats, la téléphonie sur IP, la géolocalisation, les sites de notation des restaurants, hôtels, voyages, les sites de rencontres, les sites de partage de vidéos, les jeux en ligne, etc. On pourrait se dire qu’on est vraiment embarqués sur un “bateau ivre”… De plus, vu les dangers et les menaces de piratage dont les médias se font écho pratiquement chaque jour, on peut également se dire que le bateau, en plus d’être “ivre”, navigue dans un véritable “champ de mines” !!! »[3]. Nous y reviendrons.

Les acteurs du Net

Quels sont les acteurs du Net ? Les internautes bien sûr. La puissance publique. Sur le plan économique, « la dernière décennie a consacré l’organisation économique d’Internet en quatre groupes d’acteurs : producteurs d’éléments de réseaux et de terminaux (ex. Intel, Microsoft, Cisco, Alcatel-Lucent, Dassault Systems), opérateurs réseaux (ex. AT&T, Verizon, France Télécom), fournisseurs de services et intermédiaires (ex. Google, Amazon, eBay, Pages Jaunes) et producteurs de contenus (ex. The Walt Disney Company, Time Warner, Lagardère, Reed Elsevier). La catégorie la plus récente, les intermédiaires, est celle qui participe le moins à l’investissement dans les réseaux, échappe largement à l’impôt et réalise les bénéfices les plus importants. C’est aussi celle qui occupe une part croissante des ressources en bande passante »[4]. On compte de l’ordre de 27 000 acteurs de par le monde.

Internet est une plate-forme qui semble mettre les internautes en relation directe, ce qu’elle n’est pas. Il y a le coeur du réseau, à savoir les réseaux d’accès avec la boucle locale (dédiée à une habitation ou à une entreprise) en cuivre ou en fibre optique, les opérateurs étant les fournisseurs d’accès à internet. Les points d’interconnexion assurent l’ouverture sur les autres réseaux d’accès par l’intermédiaire des « backbones », épine dorsale du réseau mondial[5]. Concernant les tuyaux et les flux de données, il y a donc les fournisseurs d’accès au client final, les opérateurs de transit au niveau du backbone, les hébergeurs qui stockent les données (dans des serveurs, les « data center »), les fournisseurs de « cache ».

Qui paye ?

Au plan mondial, le marché du transit et du cache représente quelques milliards d’euros, celui de l’accès plusieurs centaines de milliards d’euros. Historiquement les fournisseurs de contenus payaient les opérateurs de transit mais pas les fournisseurs d’accès. Aujourd’hui, les fournisseurs d’accès font payer une partie de leurs contrats aux fournisseurs de contenus. La téléphonie subventionne l’accès à internet. Nous avons vu ci-avant que la catégorie des intermédiaires (Google…) était celle qui participait le moins à l’investissement dans les réseaux, échappant largement à l’impôt et réalisant les bénéfices les plus importants. Les consommateurs payent davantage que les fournisseurs de contenus. Les enjeux sont d’importance et la bataille fait rage.

Le trafic va continuer à augmenter. La qualité de l’internet dépend en grande partie du dimensionnement des interconnexions, de la taille des tuyaux entre les réseaux des fournisseurs d’accès et les autres opérateurs de l’internet. Il va falloir investir dans les infrastructures fixes et mobiles. Qui va payer ? L’écosystème d’internet est complexe. Ménager un bon équilibre économique ne va pas de soi car les conflits d’intérêt sont bien réels. Comment par exemple mettre en place des mécanismes amenant les opérateurs qui induisent un trafic à payer aux fournisseurs d’accès un montant dépendant de la partie asymétrique des flux qu’ils engendrent ?

Certains, se fondant sur le fait qu’internet est et doit rester un bien commun de l’humanité, avancent l’idée d’un caractère et d’un financement publics, reposant donc sur l’impôt (notamment la fiscalité numérique qui reste un objectif majeur à mettre en oeuvre), d’une infrastructure publique d’intérêt général. Au même titre que d’autres infrastructures, par exemple les adductions d’eau, le réseau ferré ou les réseaux électriques qui le sont, l’étaient ou devraient le redevenir. Car le risque existe de dégradation de la qualité si les opérateurs n’investissent pas dans les réseaux ou privilégient la commercialisation des services gérés, mettant ainsi à mal le principe de non-discrimination, un des piliers de la neutralité du Net. Par exemple, les opérateurs réseaux sont tentés de facturer aux offreurs de contenus des services de livraison prioritaire, et aux abonnés une qualité de service privilégiée ou des bouquets de contenus exclusifs. En tout état de cause, la puissance publique ne saurait se désintéresser d’une infrastructure sociétale stratégique.

Une question centrale : la gestion du trafic

Faut-il mettre de l’intelligence dans le réseau ? Internet ne donne pas de garanties de performances dans l’acheminement, contrairement aux réseaux de type « circuits virtuels ». Les applications n’ont pas les mêmes besoins en termes de performances. La vidéo requiert beaucoup de bande passante, ce qui n’est pas le cas de la messagerie. Les applications en temps réel, synchrones, comme la téléphonie, se distinguent des applications asynchrones, le transfert de fichiers par exemple. La qualité dépend de l’interconnexion, de l’éloignement aussi, ce qui met en évidence l’intérêt du « peer to peer » qui distribue les échanges de fichiers entre plusieurs utilisateurs. Des routeurs sont capables de faire de la gestion de trafic à très haut débit avec des priorités. Faut-il permettre la discrimination des flux, mettre des priorités (ce qui n’est pas le cas en France pour les offres « triple play ») ? Les marchands répondent oui, on s’en doute. D’autres font dépendre la réponse du caractère commercial ou non des applications. Il y aurait alors l’internet et le non internet des services gérés. Ce qui supposerait que le commercial ne pénalise pas l’internet, qu’il y ait une garantie de qualité. Et il y a ceux pour qui il ne saurait y avoir de priorisation sur internet, bien commun, les services gérés n’existant que pour des applications qui en ont vraiment besoin. On pense par exemple à des services d’urgence médicale. Dans tous les cas, assurer la protection du principe de neutralité suppose des obligations de transparence imposées aux opérateurs en matière de gestion de trafic.

Sous l’angle du blocage et du filtrage

Le débat sur la neutralité du Net s’est aussi développé sous l’angle du « blocage », qui consiste à empêcher une communication sans inspection de contenu, et du « filtrage », qui repose sur une inspection de contenu, les deux soulevant des questions liées à la liberté d’expression sur internet. Les pouvoirs publics recherchent en la circonstance des moyens pour faire respecter la loi sur internet et lutter contre la cybercriminalité. Effectivement, l’État doit combattre les comportements attentatoires aux principes et valeurs de la société. Internet n’est pas un espace de non-droit. Les industries culturelles font pression, au nom de leurs modèles économiques traditionnels, pour empêcher l’accès aux contenus « illicites ». Mais l’on sait que la frontière avec les contenus « licites » peut être franchie. Et l’on sait surtout que les modèles économiques de l’immatériel ne peuvent pas être ceux de la production des biens matériels, les coûts marginaux de production et de diffusion d’un exemplaire supplémentaire étant quasi nuls[6]. Un vaste et tumultueux débat qui est loin d’être clos !

Un opérateur d’accès qui aurait une obligation légale de blocage serait amené à intervenir sur les contenus alors que son métier consiste à les acheminer. Les techniques de blocage (d’adresses IP, de noms de domaine, d’URL) et de filtrage ont un coût. Sont-elles efficaces ? Elles se contournent (utilisation de sites « miroir », de proxy, recours à un réseau privé virtuel) et peuvent engendrer des effets pervers (sur-blocage – les faux positifs – et sous-blocage – les faux négatifs –, chiffrement qui présente des risques pour la sécurité bien supérieurs à la défense des intérêts protégés…). Il est interdit d’utiliser son téléphone portable au volant. Pour autant, on n’a pas (encore ?) mis en place des dispositifs de blocage de cet usage-là.

Le rapport d’information déjà cité rappelle (page 34) : « Bien que, de manière générale, la Constitution n’oblige pas le législateur à prévoir l’intervention du juge pour prononcer toute mesure de restriction de la liberté individuelle, le Conseil constitutionnel a jugé, dans sa décision sur la loi HADOPI, qu’en raison de l’importance de la liberté d’expression et de communication et du rôle que joue l’accès à internet à l’égard de cette liberté, le législateur ne peut pas laisser une autorité administrative prononcer la sanction de suspension de cet accès. Il a ensuite précisé dans sa décision sur la LOPPSI que les dispositions confiant à l’autorité administrative le pouvoir de prononcer des mesures obligatoires de blocage “assurent une conciliation qui n’est pas disproportionnée entre l’objectif de valeur constitutionnelle de sauvegarde de l’ordre public et la liberté de communication garantie par l’article 11 de la Déclaration des droits de l’homme et du citoyen de 1789”, la décision de l’autorité administrative étant notamment toujours contestable devant le juge. »

Mais internet est-il vraiment neutre ?

Prenant un peu à contre-pied le débat sur la neutralité du Net, certains posent la question (iconoclaste ?) de savoir s’il est vraiment neutre. Serait-ce un mythe ?[7] La neutralité débattue est relativisée.

Le grand public ne le sait pas toujours mais l’ICANN, une association de droit californien, contrôle les ressources critiques que sont les adresses IP, les extensions et noms de domaines (fonction importante, noeud stratégique qui conditionne la visibilité sur le réseau), de par une dévolution du Ministère Américain du Commerce et dans l’absence de transparence requise ! Ainsi la France gère-t-elle son domaine national (.fr) en vertu d’une délégation accordée par cette association. Il est pour le moins surprenant et paradoxal de voir un espace public mondial géré par une association californienne ! Une nouvelle gouvernance, dans laquelle notamment chaque État aurait voix au chapitre dans des rapports d’égalité et en toute indépendance, s’impose car elle est une exigence légitime.

La couche basse d’internet, son épine dorsale en particulier, ce sont des câbles qu’il faut fabriquer et poser, sous la terre, les mers et les océans, ce sont des satellites. Et il faut gérer ces infrastructures. Ce monde est opaque et non régulé. Il est tenu par un club très fermé de gros transporteurs, pour l’essentiel des firmes états-uniennes. Elles contrôlent la quasi-totalité du trafic au plan mondial, ce qui leur procure en passant des profits substantiels.

On a vu que la mise en relation des internautes était loin d’être directe. Il y a des intermédiaires, qui plus est, de plus en plus puissants et concentrés : Google, Amazon, eBay, Apple, Yahoo, MSN, Facebook et autres compagnies. Ils commercialisent tout ce qui peut l’être dans le nouveau monde numérique : données personnelles, données de connexions, statistiques, musique, livres… Et si l’on ne connaît pas les algorithmes que Google utilise, en revanche on sait qu’il leur arrive d’accorder des « faveurs » dans leurs classements au bénéfice de sites avec lesquels l’entreprise entretient des relations commerciales. L’attention des internautes est captée à leur insu. Ils sont devenus la cible de producteurs de contenus en recherche de consommateurs. L’informatique est à la fois du calcul, du stockage et de la communication. L’approche de la neutralité du Net doit être globale. Elle doit aussi s’intéresser aux programmes et aux applications dont on doit savoir ce qu’ils font exactement. Et aux informations (quelles informations ?) qu’ils stockent on se sait trop où pour des utilisations dont il arrive qu’on les ignore.

Des questions de fond, planètaires

Avec internet, nous sommes de plain-pied dans des questions qui ont à voir avec l’état du monde et son devenir[8]. L’économie de la planète s’est réorganisée autour d’internet. Est en question le contrôle du commerce mondial, enjeu majeur comme ont pu l’être dans les siècles passés le contrôle du détroit des Dardanelles ou du canal de Suez. La mondialisation des activités humaines, long processus qui ne date pas d’hier, signifierait-elle dissolution des civilisations, des cultures, des langues (il existe d’autres caractères que latins sans accent : indiens, cyrilliques, arabes, mandarin… et un DNS peut s’écrire avec des idéogrammes), des systèmes économiques, des frontières, des modèles juridiques, des distances… des différences entre les hommes ? Fort improbable (on peut légitimement penser que c’est mieux ainsi) si l’on se réfère à la réalité observée. Quid alors de cette perception d’internet système global, homogène, offrant une plate-forme universelle de communications multimédia ? Exception paradoxale ou mythe, un de plus ? « L’internet est un réseau de réseaux autonomes depuis son ouverture commerciale au début des années 80. Il est fragmenté par construction, et il le restera »[9]. Et cette fragmentation devrait se renforcer. Avec « des webs “régionaux” ou même “continentaux”, à l’instar de la Chine et de son “AsiaNet” ; des webs “linguistiques”, où l’on pourra utiliser toute la puissance de sa langue maternelle pour exprimer une recherche, une adresse email ; des webs “culturels” qui embarqueront ou non des webs sectaires et/ou ethniques ; des webs “fermés”, sécurisés, anonymisés, plus ou moins cachés selon les objectifs suivis par leurs promoteurs et/ou utilisateurs ; des webs commerciaux, sur base “navigation” et/ou activité sociétale, essayant avec des bonheurs divers d’attirer des internautes dans leurs filets pour en revendre l’identité et leurs besoins et/ou habitude et/ou opinion… »[10]. La Chine s’est émancipée du contrôle américain de l’internet et ce sera bientôt le cas de l’Inde. Cela a nécessité le travail de milliers d’ingénieurs pendant des années.

Pourtant, « un épouvantail agité fréquemment par les gardiens du temple est la balkanisation ou fragmentation du réseau, avec son cortège de calamités, discontinuité des communications, confusion des noms et adresses, instabilité, insécurité, perte de fiabilité… Faudrait-il s’efforcer de maintenir au maximum un système de contrôle historique dont les éléments critiques sont verrouillés par le gouvernement des États Unis ?… oubliant au passage que la Chine a construit son propre internet, qu’il existe des milliers d’intranets… S’il fut un temps où l’ICANN, mandataire du gouvernement US, faisait la loi, on observe maintenant un réveil des gouvernements dits du sud… Le tropisme de fragmentation se renforce à mesure que les enjeux techniques deviennent minoritaires au regard d’autres domaines comme la propriété intellectuelle, le filtrage des informations, les investissements en infrastructure, la législation, la criminalité, ou les facteurs culturels et religieux »[11]. S’affrontent des modèles de cybersociétés, ayant chacune leurs valeurs, avec leur cortège de cyberconflits, cyberattaques[12], opérations de manipulation et désinformation, leurs enjeux en matière de souveraineté, de régulation et de sécurité des systèmes d’information. Dernière illustration en date, la publication par les États-Unis de leur « International Strategy for Cyberspace » dans laquelle ils indiquent leur volonté de réguler l’internet, de promouvoir un Internet « ouvert, interopérable, sécurisé et fiable »[13]. Un objectif louable mais, pour autant, les moyens annoncés ne manquent pas d’en inquiéter légitimement plus d’un de par le monde. En effet, « pour réaliser ce futur et aider à promulguer des normes positives, les États-Unis associeront diplomatie, défense et développement pour favoriser la prospérité, la sécurité et l’ouverture afin que chacun puisse bénéficier de la technologie du réseau ». Et les points sont mis sur les « i » : « Les États-Unis vont, avec d’autres nations, encourager un comportement responsable et s’opposer à ceux qui chercheront à perturber les réseaux et systèmes, en dissuadant et démasquant les acteurs malicieux, en défendant ces installations nationales vitales de façon aussi nécessaire et appropriée qu’il faudra. Nous nous réservons le droit d’utiliser tous les moyens – diplomatiques, informatifs, militaires et économiques – si appropriés et compatibles avec la loi internationale, afin de défendre notre nation, nos alliés, nos partenaires et nos intérêts. Nous épuiserons toutes les options avant d’en venir à la force militaire à chaque fois que nous le pourrons. » Le cyberespace est décidément bien dans l’espace « réel » !

Des mesures à prendre

L’enjeu de défense d’un bien commun et d’un bien public à l’échelle de la planète se situe donc dans un contexte global pluraliste. Cela étant, réaffirmer ces caractères de bien commun et bien public ainsi que le bien-fondé de l’intervention de la puissance publique reste fondamental. Cela implique quelques mesures qui figurent dans le rapport parlementaire déjà cité : inscrire dans la loi le principe de neutralité ; prévoir a minima l’intervention systématique du juge pour éviter les dérives en matière de blocage et s’interroger sur son efficacité ; réserver l’appellation internet aux services respectant le principe de neutralité et ainsi les distinguer des services gérés à caractère commercial ; obliger à une qualité « suffisante » pour tous les internautes. En définitive, faire en sorte qu’internet reste une plate-forme ouverte. Diderot et d’Alembert ont peut-être rêvé à un outil miracle faisant accéder en un tour de main tous les humains à toute la connaissance… L’enjeu est de conserver leur rêve devenu réalité.

Jean-Pierre Archambault
Président de l’EPI

PS : le débat sur la neutralité du Net est un débat de société qui concerne tous les citoyens. Il mêle d’une manière inextricable des questions politiques, économiques, juridiques et des concepts scientifiques et techniques : couches et protocoles de l’internet, adresses IP, réseaux d’accès et de transit, réseaux privés virtuels, routage, gestion du trafic, interconnexion des réseaux, chiffrement, standards ouverts… D’une manière évidente, un exercice plein de la citoyenneté suppose des connaissances de la science informatique, des représentations mentales efficientes. Fort opportunément, le programme de l’enseignement de spécialité optionnel « Informatique et sciences du numérique » créé en Terminale S à la rentrée 2012 comporte une partie consacrée aux réseaux. Une première avancée bienvenue pour les élèves de la filière scientifique ! Et tous sont concernés.

Notes

[1] Rapport parlementaire d’information déposé par la Commission des Affaires Économiques sur la neutralité des réseaux : Voir « Internet en 32 points », pages 16 à 20. « Innover ou protéger ? Un cyber-dilemme », Jean-Pierre Archambault, Médialog n° 58 de juin 2006, p. 42-45.

[2] Voir rapport parlementaire ci-dessus note 2, page 13.

[3] « La Netocratie », Mauro Israël, Forum Atena Où va la cybersociété ? Champ de mines ou bateau ivre ?, juin 2011. http://www.forumatena.org…

[4] « La neutralité du Net, un mythe paradoxal », Dominique Lacroix, Forum Atena Mythes et légendes des TIC, page 16. http://www.forumatena.org

[5] Voir rapport parlementaire ci-dessus note 2, « Interconnexion, transit et peering », pages 52 à 56.

[6] « Téléchargement sur Internet : quelle légitimité ? », Jean-Pierre Archambault, Médialog n° 57 de mars 2006, p. 42-45.

[7] Voir note 5 « La neutralité du Net, un mythe paradoxal », Dominique Lacroix, Forum Atena Mythes et légendes des TIC, page 16.

[8] Forum Atena Où va la cybersociété ? Champ de mines ou bateau ivre ? juin 2011. http://www.forumatena.org…

[9] « Où va l’internet ? Mondialisation et balkanisation », Louis Pouzin, Forum Atena Où va la cybersociété ? Champ de mines ou bateau ivre ? juin 2011. http://www.forumatena.org…

[10] Michel Charron, Forum Atena Où va la cybersociété ? Champ de mines ou bateau ivre ? juin 2011. http://www.forumatena.org…

[11] Voir note 10 « Où va l’internet ? Mondialisation et balkanisation », Louis Pouzin, Forum Atena Où va la cybersociété ? Champ de mines ou bateau ivre ? juin 2011. http://www.forumatena.org…

[12] « The Malicious Flash Crash Attack ou pourquoi il faudra peut-être ralentir les transactions électroniques », Robert Erra, Forum Atena Où va la cybersociété ? Champ de mines ou bateau ivre ? juin 2011 http://www.forumatena.org…

[13] « Les États-Unis veulent réguler Internet », Orianne Vatin, L’informaticien, le 18 mai 2011.