Le logiciel libre perd de son influence, la faute à la FSF de Stallman ?

Steve Winton - CC byVoici un billet un brin polémique qui affirme que le logiciel libre (et non l’open source) perd actuellement de son influence et que la Free Software Foundation de Richard Stallman en porte une lourde responsabilité.

Il est signé du chroniqueur Bruce Byfield que nous avons souvent traduit par le passé et qu’on ne peut soupçonner de troller pour troller. Il s’agit au contraire d’un réel et sincère amour déçu[1].

D’accord, pas d’accord ? Trop américano-centré ? En France, en Europe, il en va différemment ? Le logiciel libre se résume-t-il à la FSF ? etc. Il va sans dire que nous vous attendons dans les commentaires sinon c’est pas drôle 🙂

7 raisons qui expliquent pourquoi le logiciel libre perd de son influence

7 Reasons Why Free Software Is Losing Influence

Bruce Byfield – 22 Novembre 2011 – Datamation
(Traduction Framalang : Goofy)

Pourquoi les idéaux du logiciel libre sont-ils moins populaires qu’il y a cinq ans ? La réponse n’est pas évidente et un peu polémique.

Il y a cinq ans, quand la majeure partie du code Java a été publiée sous licence GPL (General Public License), Sun Microsystems a pris soin d’associer la FSF (Free Software Foundation) à l’annonce, d’obtenir une déclaration d’approbation de Richard Stallman, le président de la FSF, et d’Eben Moglen son conseiller juridique.

Aujourd’hui, on voit mal quelle entreprise serait susceptible de faire le même effort. Lentement mais sûrement, le logiciel libre a perdu l’influence qu’il exerçait au sein de la communauté qu’il a créée.

Pratiquement il est difficile d’employer l’expression FOSS (Free and Open Source Software) en espérant être compris. Dans la plupart des cas, l’expression « logiciel libre », que l’on n’entend pratiquement plus, a été remplacée par « open source ».

Que s’est-il donc passé ?

Je ne dispose pas de chiffres précis à l’appui mais je suggère ici au moins sept raisons possibles. Certaines externes à la FSF, d’autres résultant directement de ses prises de décision. Choix qui ont pu paraître sensés à une époque mais ont eu parfois des effets pervers à long terme, quand ils n’ont pas été effectués trop hâtivement…

1. Trop de bonnes causes, pas assez de ressources

La FSF fonctionne avec une équipe dirigeante de moins d’une douzaine de personnes, et avec des bénévoles. Ses revenus pour 2010 étaient de 1,23 million de dollars. Avec de telles ressources, elle soutient le projet GNU, aide des entreprises et des projets à se conformer aux licences libres, et lance une dizaine de campagnes, depuis la lutte contre les DRM et les initiatives anti-Windows jusqu’aux efforts pour convaincre le plus grand nombre d’utiliser des formats audio libres.

Tous ces efforts sont dignes d’intérêt en eux-mêmes, mais pour rarement mentionnés et relayés, ils ne trouvent que peu d’écho. Mais ce sont là des problèmes bien plus nombreux que ceux qu’a traités la FSF dans le passé, et elle le fait avec à peine quelques centaines de milliers de dollars de plus qu’en 2006, quand ses ressources lui permettent difficilement de mener à bien une seule de ces actions. Par conséquent la FSF finit par se révéler inefficace, et rares sont les campagnes qui captivent l’attention générale au sein de la communauté, plus rares encores celles qui atteignent leur objectif.

2. On ne trouve pas de nouveaux adeptes et on néglige les anciens

Ces cinq dernières années, la FSF s’est efforcée d’investir son activité sur les réseaux sociaux, pour atteindre un plus large public. Le mérite de ces efforts revient essentiellement aux actions du précédent directeur général Peter Brown, parce qu’il a une trajectoire personnelle d’activiste. C’est un pas en avant dont j’ai dit tout le bien que je pensais à l’époque, et je considère encore que c’est une bonne stratégie.

Malheureusement, cette tentative a largement échoué, certainement là encore victime de ressources trop limitées. Par ailleurs il s’agissait dans le mouvement d’établir une distinction entre la FSF et le plus technique projet GNU. J’ai entendu beaucoup de développeurs exprimer leur réticence quant aux positions activistes de la FSF en souhaitant qu’elle recentre ses activités sur le logiciel. Au final la FSF a aggravé son cas : échouant à gagner de nouveaux publics à sa cause, éloignant d’elle ses adeptes déjà existants.

3. Ubuntu a remplacé Debian

Nombreux sont ceux qui ne s’en souviennent plus aujourd’hui, mais il y a cinq ans, la communauté Debian était une référence pour le logiciel libre. Elle n’était pas toujours d’accord avec la FSF, en fait, Debian était réputé pour suivre son propre chemin, imposer sa propre définition du logiciel libre, et se faire un avis autonome sur des questions comme celle de savoir si la licence GNU Free Documentation est vraiment une licence libre (oui, c’est Debian qui décidait après un long débat, dans certaines occasions). Et encore récemment quand la FSF a créé la version 3 de la GPL, elle a pris soin de consulter les représentants de Debian.

Toute aigreur mise à part, en tant que distribution basée sur la communauté la plus répandue, Debian a donné une crédibilité supplémentaire à la reconnaissance du logiciel libre. Tout du moins Debian a-t-elle aidé à donner l’impression d’une communauté suffisamment grande pour avoir des différences. Aujourd’hui, cependant, alors que Debian est une distribution plus influente que jamais, une bonne part de la notoriété dont elle jouissait a été captée par sa dérivée Ubuntu. Et ce n’est pas la faute d’Ubuntu qui, soutenue par une entreprise commerciale qui doit rechercher le profit, n’hésite pas à renoncer à certains principes du logiciel libre par commodité

Avec cet allié et partenaire de la FSF qui devient moins influent, c’est toute la cause du logiciel libre qui s’est affaiblie. À défaut de mieux, la controverse et les débats avec Debian ont aidé à garder présents à l’esprit de la communauté les problèmes de principes.

4. Le défi des nouvelles technologies n’est pas relevé

De nouvelles technologies aient été introduites ces cinq dernières années. Or la stratégie majeure de la FSF a été de les dénoncer, puis de les ignorer. Ces derniers temps, Stallman a ainsi vilipendé l’informatique dans les nuages, les e-books, les téléphones mobiles en général et Android en particulier.

Dans chaque cas, Stallman a souligné à juste titre les problèmes concernant la vie privée et les droits du consommateurs, ce que les autres ont souvent oublié de mentionner. Le problème c’est qu’en continuant d’ignorer ces nouvelles technologies on ne résout rien, et que le mouvement du logiciel libre devient moins pertinent dans la vie des gens. Beaucoup sont attirés par ces nouvelles technologies, et d’autres sont contraints de les utiliser pour échanger, travailler et communiquer avec la majorité.

La licence libre Affero GNU GPL de la FSF devait etre tout indiquée pour l’informatique dans le nuage. Pourtant, selon les statistiques de Black Duck, elle n’est dans le fait que trop rarement utilisée, seulement 401 logiciel sont sous cette licence alors qu’il existe des centaines de milliers de logiciels sous licence libre. En persistant à mettre l’accent sur l’ordinateur de bureau traditionnel, le logiciel libre se tient à distance des technologies actuelles pour lesquelles justement il serait le plus nécessaire.

6. La scission de la licence GPL

En juin 2007, la FSF a publié la version 3 de la GPL. Cette mise à jour s’efforçait de prendre en compte les nouvelles technologies et les moyens de contourner les clauses de la version 2. Cette nouvelle version a été le résultat d’une concertation sans précédent entre la communauté et les entreprises parties prenantes.

Toutefois, cette consultation demandait d’atteindre un consensus. Lorsque Linus Torvalds a décidé que le noyau Linux resterait sous la GPLv2, la FSF est allée de l’avant vers la GPLv3 sans en tenir compte.

Sur le moment, la décision a paru sensée pour éviter une impasse. Mais on se retrouve actuellement avec une GPLv2 utilisée par 42,5% des logiciels libres contre moins de 6,5% pour la GPLv3 selon Black Duck.

Avant cette révision majeure, la licence GPL contribuait à unifier la communauté, et la FSF, en tant que créateur, promoteur et défenseur de la GPL, avait une forte présence en son sein. Or aujourd’hui, la GPLv2 est considérée comme la version que privilégient les supporters de l’open source, et la GPLv3 celle des défenseurs du logiciel libre. Et non seulement l’ensemble de la philosophie du logiciel libre en apparaît affaiblie, mais encore le fossé s’élargit entre logiciel libre et open source.

Plus encore, comme si la situation n’était pas déjà assez mauvaise, il semble qu’il y ait une tendance à adopter des licences permissives qui n’exigent pas le partage du code, comme le font toutes le versions de la GPL.

6. On n’assiste pas aux conférences

Richard Stallman et beaucoup d’autres membres de la FSF refusent de participer à des conférences qui n’utilisent pas l’expression exacte « GNU/Linux » en lieu et place du simple « Linux » dans leur intitulé et leur promotion. En fait Stallman est connu pour refuser de s’exprimer devant un groupe de journalistes qui n’utiliseraient pas la bonne nomenclature, c’est-à-dire la sienne (NdT : cf la librologie Les mots interdits de Richard Stallman).

La principale exception à ma connaissance est Eben Moglen, dont le travail à la Software Freedom Law Center implique beaucoup de gens qui se revendiquent comme des supporters de l’open source.

Je comprends que ce refus soit une question de principe. Cependant, en dépit de tous les moyens de communication qu’offre Internet, le contact et la communication directs demeurent importants pour la communauté. En maintenant coûte que coûte leurs idéaux, les défenseurs du logiciel libre se sont rendus invisibles, se coupant des réseaux sociaux et autres associations informelles qui émergent lorsque les gens se parlent dans la vraie vie.

7. Richard Stallman fait des gaffes

En tant que fondateur et principal porte-parole de la FSF, Richard Stallman a joué un rôle décisif dans l’histoire du logiciel libre. Personne ne peut le contester et personne ne reviendra là-dessus

Mais l’entêtement de Stallman, qui a aidé la diffusion et l’essor des principes du logiciel libre, semble maintenant à beaucoup un handicap. Stallman affiche de façon continuelle son obsession des définitions qui détournent des principaux points pour lesquels la liberté logicielle est nécessaire. De plus, ces temps-ci, il semble ne vouloir jamais rater la moindre occasion de critiquer, pas toujours avec pertinence, la philosophie de l’open source,

Pire encore, Stallman a tout un passé de gaffeur, sans jamais admettre avoir eu tort. En juillet 2009, il a suscité la controverse en refusant de retirer une remarque sexiste qu’il avait faite au Desktop Summit à la Grande Canarie. Plus récemment, Stallman notait à propos de Steve Jobs « je ne suis pas content qu’il soit mort, mais je suis content qu’il soit parti », puis il a précisé son propos quelques semaines plus tard. Le problème ce n’est pas qu’il ait eu tort d’accuser Jobs de rendre populaires des technologies fermées, c’est que beaucoup de gens ont trouvé que ses déclarations étaient indélicates et inopportunes en parlant d’un homme qui venait de mourir, et qu’un responsable d’organisation aurait dû montrer plus de bon sens et ne pas faire de suite de telles remarques.

Stallman est loin de représenter à lui seul l’ensemble du logiciel libre, mais force est de constater que beaucoup de gens ont une mauvaise opinion de ce mouvement à cause de lui.

Renverser la vapeur

Aucune des raisons mentionnées ci-dessus ici n’est fatale en elle-même. Cependant, additionnées, elles forment une longue trame sur laquelle on peut expliquer pourquoi les idéaux de la FSF et des logiciels libres exercent moins d’influence qu’auparavant.

En tant que supporter du logiciel libre, je ne peux qu’espérer que ce manque d’influence pourra être renversé. Cinq ans c’est court, et je ne vois aucune raison qui pourrait empêcher le logiciel libre de récupérer le temps et le terrain perdus.

Le seul problème est de savoir si les membres influents du logiciel libre vont admettre les problèmes et les corriger… Je l’espère, mais je ne suis pas très optimiste quant à la réponse.

Notes

[1] Crédit photo : Steve Winton (Creative Commons By)




Une communauté de pratique se cache-t-elle derrière votre site web ?

Felix E. Guerrero - CC by-saFramasoft se présente volontiers comme un réseau de sites web visant à faire connaître et diffuser le logiciel libre. Sauf qu’en s’arrêtant là rien ne le distingue à priori des autres sites web comme celui du télé-achat de TF1 par exemple.

En bout de chaîne tous ces sites proposent un service au visiteur mais il est intéressant de s’interroger sur la finalité de ce service et surtout la manière dont il a été motivé, imaginé et réalisé[1].

Seul dans son coin ou partie prenante d’une communauté de pratique ?

Telle est la petite réflexion-traduction du jour…

Une communauté de pratique est plus qu’un site web

A community of practice is more than a website

Steve Radick – 10 novembre 2011 – OpenSource.com
(Traduction Framalang : Lolo le 13, Julien et Pandark)

Une communauté de pratique (CoP, pour community of practice) est, d’après les anthropologues cognitifs Jean Lave et Etienne Wenger, un groupe de personnes qui partagent un intérêt, une compétence, et/ou une profession.

Au cours des dernières années, le terme de « communauté de pratique » est entré dans le lexique des mots à la mode des réseaux sociaux avec la collaboration virtuelle, l‘engagement, les plateformes, et l‘Entreprise 2.0. Les grands entrepreneurs veulent les implémenter, on demande aux nouveaux employés de les rejoindre, et on dit aux managers expérimentés de les soutenir, mais que sont-elles exactement ?

À aucun endroit dans la définition ci-dessus ne sont mentionnés les mots site web, wiki, blog, ou réseau social. Nulle part il n’est dit que cela doit être virtuel ou physique, ni même uniquement l’un des deux. Il n’y a pas de références aux outils qui sont utilisés pour faciliter la communication et la collaboration, et pas plus de définition d’un ensemble de caractéristique qui déterminerait comment une communauté de pratique fonctionne ou sur quels sujets portent les discussions.

Un groupe de gens qui partagent un intérêt, une compétence et/ou une profession. Ça semble assez simple, pas vrai ? Si on le présente ainsi, chacun pourrait dire qu’il est déjà membre d’une douzaine de communautés de pratique — au travail, à l’église, à l’école, etc. C’est simplement un groupe de gens qui communiquent et collaborent ouvertement autour d’un sujet qui leur tient à coeur. L’existence des CoPs est aussi ancienne que le désir des gens de faire et d’apprendre les uns des autres.

Ce n’est pas parce que toutes leurs communications et collaborations n’apparaissent pas sur votre site que les gens ne sont pas déjà en train de communiquer et collaborer dans les coulisses à propos de ce centre d’intérêt partagé. Les communautés de pratique sont vivantes et s’épanouissent dans la plupart des organisations.

Créez-vous une communauté de pratique ou allez-vous uniquement ajouter un site web de plus ? Comment votre CoP est-elle en phase avec certaines de ces hypothèses ci-dessous ?

  • Les gens passent du temps bénévole à aider les autres au sein d’une communauté de pratique. Les gens visitent un site pour télécharger ce dont ils ont besoin
  • Les CoPs se concentrent sur l’ajout de valeur pour leurs membres. Les sites se concentrent sur le fait d’avoir de nouveaux utilisateurs.
  • Le succès d’une CoP est mesurée avec des anecdotes vécues ensemble, des projets collectifs et la satisfactions de ses membres. Le succès d’un site est mesuré avec des hits, des visites et des références venant d’autres sites.
  • Le membre d’une CoP partage son expertise pour créer de nouvelles fonctionnalités. Un site rémunère des gens pour ajouter de nouvelles fonctionnalités.
  • Une CoP est construite autour des conversations. Un site est construit autour du contenu.

Des communautés de pratique nous ont entourés depuis des décennies et le feront encore pour des décennies, elles ont aidé d’innombrables organisations à faire des changements majeurs, à accroître leur efficacité, à supprimer les doublons et à rendre le travail plus agréable. Dans bien des cas, l’utilisation des réseaux sociaux a amélioré ces CoPs en leur donnant plus d’outils et de possibilités d’interconnecter les gens ensemble. Malheureusement, les réseaux sociaux participent également à séparer les gens en produisant du contenu singulier qui flatte avant tout leur ego.

Et vous que construisez-vous ?

Pour plus d’information à propos des communautés de pratique, voir « Culivating Communities of Practice : A Guide to Managing Knowledge », édité par Harvard Business School Press en 2002 par Étienne Wenger, Richard McDermott et William M. Snyder.

Notes

[1] Crédit photo : Felix E. Guerrero (Creative Commons By-Sa)




Exercice de la citoyenneté et culture informatique

Jim Sneddon - CC byUn enseignement de spécialité optionnel « Informatique et Sciences du numérique » en Terminale S a donc été créé pour la rentrée 2012. Le programme a été publié dans le BOEN spécial du 13 octobre 2011[1]. Ce premier pas qui en appelle d’autres est en phase avec l’opinion des Français. En effet, l’INRIA a réalisé une enquête intitulée « Quelle compréhension les Français ont-ils du monde numérique ? », dans laquelle on apprend notamment que 80 % d’entre eux estiment qu’il serait intéressant et nécessaire de faire une place aux sciences du numérique à l’Ecole, au même titre que la chimie ou la physique ».

Le (bon) choix d’une discipline informatique en tant que telle a été fait. Il constitue un nouveau paradigme éducatif. Il entérine le caractère erroné de l’approche pédagogique selon laquelle les apprentissages doivent se faire exclusivement à travers les usages de l’outil informatique dans les différentes disciplines existantes. Le B2i, sa traduction institutionnelle s’est révélé être un échec : c’est ce que montre l’expérience de ces dernières années[2].

L’informatique étant partout, elle doit être quelque part en particulier, à un moment donné, sous la forme d’une discipline scolaire en tant que telle. L’utilisation d’un outil, matériel ou conceptuel, ne suffit pas pour le maîtriser.

Le colloque Didapro4-Dida&STIC a souligné que, d’évidence, la (re)création d’un enseignement de l’informatique au lycée allait donner un souffle nouveau à la didactique de la discipline. La préparation de l’enseignement « Informatique et Sciences du numérique » est entrée dans sa phase opérationnelle dans l’année scolaire 2010-2011. Elle est l’occasion de préciser des aspects de la relation entre la discipline informatique et sa pédagogie, par exemple pour la formation du citoyen.

Pourquoi un enseignement de l’informatique ?

Un tel enseignement se fonde sur les trois missions traditionnelles de l’Ecole, former l’homme, le travailleur et le citoyen. Il s’agit, au delà de la formation de spécialistes évidemment indispensable et, pour reprendre la formule consacrée, de former l’« honnête homme du 21ème siècle ». Ce sont des objectifs très généraux. Se pose ensuite la question de la contribution des différentes composantes de la connaissance et de la culture à ces objectifs, en particulier la contribution des sciences et des techniques. La culture générale scolaire évolue. Ainsi, en son temps, les sciences physiques sont-elles devenues discipline scolaire car elles sous-tendaient les réalisations de la société industrielle. Or aujourd’hui le monde devient numérique… Enfin, il faut traduire les savoirs savants en savoirs didactisés qui constituent les disciplines scolaires. Par exemple, en mathématiques on étudie des fonctions, en sciences physiques la notion de force, en SVT celle de cellule, en chimie les atomes et les molécules. Et le programme de l’enseignement de l’informatique en Terminale S porte sur les quatre grands domaines de la science et technique informatique : la notion d’information, l’algorithmique, la programmation, l’architecture des machines et des réseaux.

La contribution des sciences en tant que telles à la formation du citoyen et l’exercice de la citoyenneté

La contribution des sciences à la formation du citoyen et à l’exercice de la citoyenneté, spécifique et intrinsèque, est une question essentielle. Essayons de la préciser.

L’informatique et les réseaux

2009 a vu le vote de la loi « Création et Internet » dite loi Hadopi. En 2006, la transposition de la directive européenne sur les Droits d’auteur et les droits voisins dans la société de l’information (DADVSI) par le Parlement avait été l’occasion de débats complexes où exercice de la citoyenneté rimait avec technicité et culture scientifique. En effet, s’il fut abondamment question de copie privée, de propriété intellectuelle, de modèles économiques…, ce fut sur fond d’interopérabilité, de DRM, de code source, de logiciels en tant que tels. Dans un cas comme dans l’autre on n’a pu que constater un sérieux déficit global de culture informatique largement partagé. La question se pose bien de savoir quelles sont les représentations mentales opérationnelles, les connaissances scientifiques et techniques qui permettent à tout un chacun d’exercer pleinement sa citoyenneté. Sans risque de se tromper, on peut affirmer que « cliquer sur une souris » et utiliser les fonctions simples d’un logiciel ne suffisent pas à les acquérir, loin de là.

Les débats de société à la fois durent et se succèdent. Est venu sur le devant de la scène, celui, complexe et essentiel, de la neutralité du Net. Internet est une plate-forme qui semble mettre les internautes en relation directe, ce qu’elle n’est pas. Il y a le coeur du réseau, à savoir les réseaux d’accès avec la boucle locale (dédiée à une habitation ou à une entreprise) en cuivre ou en fibre optique, les opérateurs étant les fournisseurs d’accès à internet. Les points d’interconnexion assurent l’ouverture sur les autres réseaux d’accès par l’intermédiaire des backbones, épine dorsale du réseau mondial. Concernant les tuyaux et les flux de données, il y a donc les fournisseurs d’accès au client final, les opérateurs de transit au niveau du backbone, les hébergeurs qui stockent les données (dans des serveurs, les data center), les fournisseurs de cache… et plein de choses encore. Comment participer aux débats sans une représentation mentale de l’architecture du réseau des réseaux ?

Des exemples du côté des mathématiques et des sciences expérimentales

L’actualité fait que le citoyen doit pouvoir se faire son opinion sur les causes de la crise financière. Vaste problème ! Dans une interview au journal Le Monde, le 19 octobre 2009, Benoît Mandelbrot, père de la théorie des fractales, indiquait déjà qu’«il était inévitable que des choses très graves se produisent ». Dès 1964, il avait perçu que les modèles mathématiques utilisés par les financiers étaient erronés et avait tenté d’alerter sur leurs dangers. « Les gens ont pris une théorie inapplicable… Elle ne prend pas en compte les changements de prix instantanés qui sont pourtant la règle en économie. Elle met des informations essentielles sous le tapis. Ce qui fausse gravement les moyennes. Cette théorie affirme donc qu’elle ne fait prendre que des risques infimes, ce qui est faux… » S’il est difficile au citoyen lambda de discuter sur le fond ce point de vue, il doit néanmoins comprendre la problématique posée, se faire son opinion dans un débat contradictoire. B. Mandelbrot ajoute que « les catastrophes financières sont souvent dues à des phénomènes très visibles mais que les experts n’ont pas voulu voir ». Savoir pourquoi est une question intéressante qui concerne aussi les financiers eux-mêmes. Un certain niveau de culture mathématique constitue d’évidence une condition d’exercice de la citoyenneté. Il vaut mieux par exemple avoir appris à étudier des fonctions à l’Ecole que de ne point l’avoir fait. Il ne s’agit bien évidemment pas pour le citoyen lambda d’être en mesure de mener un débat contradictoire avec des spécialistes de haut niveau. Mais de percevoir de quoi on parle, d’avoir des « sensations » et de pouvoir se faire une opinion dans le cadre d’un débat pluraliste. Plus on en sait mieux ça vaut. Et rappelons que la démocratie est le gouvernement des affaires de la cité par des « ignorants » !

Le citoyen éclairé participe aux débats de société sur le nucléaire ou les OGM. Pour cela, il dispose d’un appareillage conceptuel que les enseignements des sciences physiques et des sciences de la vie et de la terre lui ont donné.

Impostures intellectuelles

Il arrive que l’on oublie la difficulté d’exercices que l’on pratique quotidiennement et le temps qu’il a fallu passer, de longues années, pour accéder à une indéniable compétence. Ainsi la lecture et l’interprétation d’une courbe ou la compréhension d’un texte. Et certains ont parfois du mal à imaginer la situation dans laquelle se trouvent ceux qui n’ont qu’une connaissance très limitée d’un domaine donné.

A fin d’illustration, l’enjeu étant fondamental pour la citoyenneté, tournons-nous vers l’ouvrage très éclairant de deux physiciens Alan Sokal et Jean Bricmont Impostures intellectuelles qui a provoqué en son temps un certain émoi[3]. Les auteurs s’étonnent de la manière avec laquelle quelques grands noms des sciences humaines (Jacques Lacan, Julia Kristeva, et d’autres) « empruntent » dans certains de leurs travaux des concepts aux mathématiques et aux sciences physiques. Ainsi J. Lacan a-t-il vu des relations entre des objets topologiques (tore, bouteille de Klein) et la structure des maladies mentales (et l’érection d’un certain organe). Tentant de construire une théorie formelle du langage poétique, J. Kristeva a fait appel à des mathématiques savantes, invoquant l’indécidabilité de l’hypothèse du continu. Comme par ailleurs elle semble confondre les ensembles {0,1} et 0,1, on peut avoir quelques doutes sur la solidité de l’édifice.

A. Sokal et J. Bricmont font deux reproches essentiels à ces intellectuels :

  • ne pas maîtriser les concepts sollicités (qu’un élève de terminale scientifique ou un étudiant de DEUG connaissent), ce qui provoque un certain malaise. Ansi J. Lacan donne-t-il des définitions fausses des ensembles ouverts et confond nombres irrationnels et nombres imaginaires (programme de terminale scientifique) ;
  • ne pas dire en quoi l’emprunt, le transfert d’un champ de la connaissance à un autre sont légitimes, les spécialistes des sciences humaines en question précisant qu’en la circonstance ils ne filent pas la métaphore. S’appuyer sur un concept de physique nucléaire pour faire comprendre à un physicien une problématique en psychologie a un sens. Par contre, utiliser un concept mathématique qu’il ignore pour convaincre un sociologue de la pertinence d’une théorie sociologique n’en a pas. Si, en plus, on ne prouve pas en quoi est légitime l’importation d’un concept dans un autre champ de la connaissance, on frise l’argument d’autorité.

Les exemples ici rapportés illustrent les conséquences du manque de culture scientifique du (et pour le) grand public, qui s’étendent d’erreurs factuelles, dues à la mauvaise compréhension de notions élémentaires, jusqu’à l’invocation quasi-magique de résultats difficiles, censés étayer une construction fragile. Or ils sont légion les débats qui mêlent enjeux de société et sciences sans que l’on sache toujours explicitement ce qui est métaphore et ce qui ne l’est pas. Il faut donc prendre garde à ce que les élèves d’aujourd’hui, citoyens de demain, ne se retrouvent pas dans pareilles inconfortables situations où on les entretient d’enjeux économiques, d’enjeux de société, en faisant référence à des notions qu’ils ignorent. On ne peut imaginer un instant que l’on puisse débattre sereinement, sur un pied d’égalité si l’on n’a pas de solides connaissances scientifiques, en général et en particulier en informatique. Il faut écarter le risque bien réel d’avoir des citoyens de seconde zone, car citoyens de seconde zone en matière d’informatique (au même titre que l’on est citoyen de seconde zone lorsque l’on ne maîtrise pas la lecture, l’écriture ou le calcul). Pour conjurer ce danger pour la démocratie, le rôle de l’École, le seul endroit où les enfants rencontrent le savoir d’une manière organisée et structurée, est fondamental.

Contenus scientifiques et pédagogie

Cela étant, le programme de l’enseignement « Informatique et Sciences du numérique » fait une petite place à des questions sociétales. Pourquoi pas dans la mesure où la place est réduite et où ces questions sont ancrées dans les notions scientifiques apprises par les élèves. Dans la mesure aussi où la fabrication des produits informatiques s’accompagne d’une interaction importante avec les utilisateurs dans une « entreprise » étendue » permise par les réseaux. On pourra ainsi traiter la distinction entre les licences logicielles libres et propriétaires, qui prendra alors tout son sens, quand les élèves auront écrit du code source. Cela permet d’éviter l’écueil « Café du commerce ». Autre écueil, demander à l’Ecole des choses qu’elle ne peut pas faire. Ainsi, dans les années 1990, en Amérique du Sud, des formations universitaires étaient étroitement liées à l’étude des problèmes sociaux : la justice sociale, l’instauration de la paix, la protection de l’environnement, la santé publique, le développement économique, le respect des droits humains… Il faut éviter de subordonner à l’acuité de problèmes sociaux non résolus la formation intellectuelle aux savoirs théoriques : acquisition de connaissances, aptitude au raisonnement et maîtrise d’outils conceptuels permettant de comprendre le monde et d’avoir prise sur la réalité. Sans oublier que ces questions sociales font partie intégrante des objets des sciences humaines, l’Histoire, la Philosophie. Enfin, on peut noter que les questions sociétales et citoyennes ne figurent pas dans les programmes de chimie. Ce qui n’empêche pas qu’il y a des choses à dire sur les pratiques de secret et de commercialisation de produits dont la nocivité est connue des industriels mais cachée au public (pyralène, amiante, pesticides, herbicides, certains médicaments…).

Chaque enseignant sait s’appuyer sur les connaissances des élèves, leurs centres d’intérêt, leurs pratiques, leurs motivations pour « justifier » l’étude des notions du programme de sa discipline. Il part des élèves tels qu’ils sont pour les emmener plus loin, au-delà de leur quotidien. C’est l’ABC de la pédagogie. L’activité de projet est l’une des caractéristiques de la didactique de l’informatique : le choix des projets a tout à gagner à s’opérer en tenant compte du vécu des élèves en matière d’usages des TIC. C’est aussi pourquoi nous pensons que la prise en compte des implications et problématiques citoyennes de l’informatique relève fondamentalement de la pratique pédagogique de l’enseignant de la discipline scientifique et technique qu’est l’informatique.

Reprenant la matrice d’une célèbre formule de Jean Jaurès, on peut dire que « peu d’informatique éloigne de la citoyenneté mais que beaucoup y amène ». La contribution des sciences en tant que telles est incontournable pour la formation du citoyen, comme celles des humanités et des sciences humaines. Mais leurs contributions doivent être spécifiques et à part entière.

Jean-Pierre Archambault
Président de l’EPI

Crédit photo : Jim Sneddon (Creative Commons By)




Geektionnerd : Hadopi 3

Hadopi 3, j’y vais, j’y vais pas ?

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

Crédit : Simon Gee Giraudot (Creative Commons By-Sa)




Les inspecteurs de l’éducation nationale convoqués chez Microsoft

Paris, mardi 22 novembre 2011, communiqué de presse.

À l’occasion du salon de l’éducation Éducatec-Éducatice 2011[1], les inspecteurs de l’Éducation nationale chargés de mission nouvelles technologies (IEN-TICE), conseillers techniques des inspecteurs d’académie, tiendront leurs journées annuelles. Cette année, l’administration centrale de l’Éducation nationale les convoque directement au siège de la société Microsoft, à Issy-les-Moulineaux. L’April et Framasoft regrettent vivement que le programme de ces journées ne mentionne pas les logiciels et ressources libres.

Pas moins d’une centaine d’IEN-TICE sont donc conviés au siège de Microsoft, le mardi 22 novembre, veille de l’ouverture du salon, pour une réunion dédiée aux technologies de cette entreprise[2].

Convocation IEN Microsoft

Convocation IEN Microsoft

Les journées se poursuivront ensuite jusqu’au 24 novembre, à la Porte de Versailles, selon un programme pré-établi qui semble faire la part belle aux technologies propriétaires.

Nous pensons, comme de nombreux enseignants, que le fait que les IEN-TICE soient convoqués chez Microsoft constitue une véritable entorse à l’indispensable neutralité scolaire[3]. Cela nous semble incompatible avec les missions et les valeurs du système éducatif et des enseignants, contraire à leur culture de diversité, de pluralisme, de diffusion et d’appropriation de la connaissance par tous. « Les IEN-TICE ont droit à une formation qui respecte la neutralité scolaire et le pluralisme technologique. En 2011, il est difficile d’ignorer les nombreux apports du libre pour l’éducation ou de les passer sous silence » estime Rémi Boulle, vice-président de l’April, en charge du groupe de travail Éducation.

Selon le programme, une table-ronde aura pour objectif de dégager les grandes tendances et les besoins qui se dessinent sur le plan des usages pédagogiques et des ressources numériques éducatives. Nous espérons que de nombreuses références seront faites aux ressources libres et que les questions de « l’exception pédagogique » et de l’incitation à la mutualisation sous licence libre seront évoquées.

Rappelons que, depuis longtemps, le monde du logiciel libre s’engage auprès du Ministère et aux cotés des professionnels de l’éducation, en faveur de l’égalité des chances, du droit à l’accès aux technologies les plus récentes, et pour la réduction de la fracture numérique.

De nombreuses associations et entreprises développent des ressources et des logiciels libres pour l’enseignement. Citons notamment, pour le premier degré, GCompris, les produits de la société Ryxéo ou ceux de DotRiver, les logiciels du Terrier développés par des enseignants pour des enseignants, FrenchKISS, OpenOffice4kids, le serveur d’exercices WIMS, édubuntu…

Ces solutions sont pérennes et bénéficient d’une large base d’utilisateurs dans les écoles françaises. Les logiciels libres constituent des solutions alternatives de qualité, et à moindre coût, dans une perspective de pluralisme technologique. Par ailleurs, ils favorisent l’emploi local.

Soulignons que le Ministère lui-même met à la disposition des enseignants le service SIALLE[4], une source d’informations sur l’offre en matière de logiciels libres éducatifs. Le Ministère est également impliqué dans le projet national et le pôle de compétences EOLE[5]. Enfin, un accord cadre[6] a été signé par le ministère de l’Éducation nationale en faveur de l’utilisation de logiciels et ressources libres dans l’éducation. Malgré tout, leur importance continue d’être minimisée par certains acteurs.

Dans l’intérêt des professeurs et des élèves, il aurait été indispensable que le programme des journées IEN-TICE prévoie au moins un espace dédié aux logiciels et ressources libres. C’est d’autant moins compréhensible que le salon fait toute sa place au programme Sankoré (un écosystème international, public et privé, de production de ressources numériques éducatives libres) qui concerne au premier chef l’enseignement primaire.

Nous nous tenons à la disposition des inspecteurs pour toute information complémentaire sur les logiciels et ressources libres pour l’éducation et leur souhaitons un riche salon Éducatec-Éducatice.

Notes

[1] Éducatec-Éducatice

[2] http://www.april.org/sites/default/files/convocation-IEN-TICE-Microsoft_1.png et http://www.april.org/sites/default/files/convocation-IEN-TICE-Microsoft_2.png

[3] Sur cette même thématique, on pourra lire avec profit le « Code de bonne conduite des interventions des entreprises en milieu scolaire »

[4] SIALLE

[5] http://eole.orion.education.fr/ : EOLE est tout un ensemble de modules développés pour les établissements scolaires. Citons Amon (pare-feu libre), Scribe (serveur pédagogique complet), Eclair (serveur de clients légers GNU/Linux qui permet de faire démarrer, depuis le réseau, des machines sans système d’exploitation installé), Amon Ecole…

[6] http://eduscol.education.fr/data/fiches/aful.htm : signé en 1998 entre l’AFUL et le Ministère. Il a été reconduit depuis.




Framasoft et le logiciel libre sur France Culture

Ce samedi 19 novembre à 18h10 (ou plus tard en podcast) l‘excellente émission Place de la Toile sur France Culture nous fait l’honneur de nous inviter à l’occasion de notre dixième anniversaire.

Framasoft sur France Culture - Gee - CC by-sa




Geektionnerd : e-Surveillance

Surveillance en France : Google veut une prise de conscience.

Geektionnerd - Simon Gee Giraudot - CC by-sa

Crédit : Simon Gee Giraudot (Creative Commons By-Sa)




Geektionnerd : Business Software Alliance

La nouvelle campagne de la BSA contre le « piratage » ne fait assurément pas dans la dentelle… plutôt dans la dénonciation même !

Remarque : Et hop, un petit détournement de bon aloi.

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

Crédit : Simon Gee Giraudot (Creative Commons By-Sa)