Et si je proposais ma musique gratuitement sur le Web pendant une journée ?

« J’ai encaissé deux fois plus d’argent en une seule journée que ce que je touche d’habitude en un mois ! »

Andy Othling est musicien. Il est guitariste de tournée pour Future of Forestry et il a enregistré des albums personnels sous le nom Lowercase Noises.

Sa musique est cool et planante 🙂

Mais ce qui est encore plus cool c’est la très originale et probante expérience qu’il vient de mener sur Internet.

Sous le régime du copyright classique, ses albums sont présents sur le site de vente de musique en ligne Bandcamp (en passant cette plateforme est sans DRM et propose la format FLAC et Ogg Vorbis).

Présents et tous payants, sauf pendant 24h…

C’est le récit de cette folle journée qu’il vous raconte ci-dessous.

Attention, les conclusions pourront fortement heurter la sensibilité de certains hadopistes !

Lowercase Noises - Knate Myers

Que se passe-t-il lorsque votre musique est gratuite pendant une journée ?

What happens when your music is free for a day?

Andy Othling – 23 octobre 2012 – Blog personnel
(Traduction : Cyrille L., ehsavoie, Martin, Gatitac, Yann, ZeHiro, geecko, Naar, Sparty, Gaëtan, e-Jim, Tchevengour)

Il existe un débat houleux pour savoir si donner gratuitement sa musique est une bonne pratique ou non. Certains disent que cela dévalorise votre musique et vous empêche d’être pris au sérieux. D’autres pensent que c’est nécessaire pour attirer l’attention du public sur celle-ci.

Ce billet n’est pas là pour vous faire adhérer à l’une ou l’autre de ces thèses, mais plutôt pour vous présenter les résultats d’une expérience que j’ai menée il y a quelques semaines. J’ai voulu voir ce qu’il se passerait si je mettais toute ma musique à prix libre (avec un minimum de 0 $) sur ma page Bandcamp pendant 24 heures.

Comment je m’y suis pris

Voici comment j’ai travaillé : j’ai programmé l’envoi d’un e-mail à ma liste de diffusion le 4 octobre à 1 heure du matin annonçant à tout le monde que toute ma musique était disponible à prix libre, à partir de 0 $, et leur indiquant de faire passer le message à toutes leurs connaissances.

J’ai aussi programmé des mises à jour de mes statuts Facebook et Twitter pour la même heure, en demandant aux gens de diffuser l’information les prochaines 24 heures. Ensuite, j’ai programmé des tweets toutes les 2 à 4 heures et des mises à jour du statut Facebook toutes les 4 à 6 heures durant les 24 heures de l’opération, afin de leur rappeler l’offre spéciale.

Les résultats

C’était attendu, l’un des résultats est que beaucoup plus de personnes ont eu accès à ma musique. Ils ont tapé 0 $ et ont téléchargé tout ce qu’ils voulaient gratuitement. Mais d’autres choses intéressantes se sont produites.

Sur Bandcamp, le nombre de téléchargements est le facteur principal de la notoriété.

Puisqu’un grand nombre de personnes ont téléchargé ma musique (gratuitement ou non), mes albums furent propulsés en haut de beaucoup de listes du site. L’image ci-dessous montre les albums d’ambiance les plus vendus de ce jour si spécial :

lowercasenoises1.png

Comme vous pouvez le voir, mes six albums sont directement en haut de cette section. Génial ! (Y voir aussi Karl Verdake me réjouis !)

Être en haut de ces listes, c’est plus de nouveaux visiteurs.

Parce que ma musique a atteint les sommets de certaines listes de Bandcamp, elle est devenue plus visible à ceux qui parcouraient ces listes ce jour-là. Ci-dessous, quelques captures d’écran des pages de statistiques de Bandcamp du jour J :

lowercasenoises5.png

lowercasenoises2.png

Plus de 100 personnes sont allées écouter ma musique depuis la page d’accueil de Bandcamp et 50 autres l’ont fait grâce aux listes mentionnées plus haut. Ce sont des personnes qui ne connaissaient pas même l’existence de ma musique.

Les gens se sont vraiment passés le mot.

Je n’ai eu aucune honte a demander aux gens de diffuser autour d’eux que mes morceaux restaient gratuits pendant ces 24 heures. Grâce à cela, quelqu’un a spontanément relayé l’info sur Reddit. Comme vous pouvez le voir ci-dessous, cela m’a apporté encore plus de nouveaux auditeurs :

lowercasenoises3.png

Une fois de plus, 202 nouveaux auditeurs rien qu’en demandant aux gens d’en parler autour d’eux !

Les gens continuaient de payer pour ma musique.

Maintenant, vous vous demandez probablement qu’est-ce que ça a donné en terme de rentabilité. J’avais prévu une chute des revenus, car c’est généralement ce à quoi on s’attend quand on commence à distribuer les choses sans contrepartie. Mais ce qui est en fait arrivé, c’est que, sur les ventes, j’ai encaissé deux fois plus en une seule journée que ce que je touche d’habitude EN UN MOIS. Oui, parfaitement, vous lisez bien. Une journée a davantage rapporté que deux mois en temps normal !

Je ne suis pas vraiment capable d’expliquer cela, mais je pense que ça s’est joué pour beaucoup sur la générosité réciproque. Les gens ont vraiment semblé apprécier que je fasse ce geste et ont répondu en donnant plus qu’ils ne le faisaient auparavant. J’ai ainsi été stupéfait par ceux qui ont décidé de donner davantage pour un album que le prix qu’il leur aurait coûté la veille.

Le plus important : les contacts

Plus d’argent, c’est génial, mais à mon avis ce n’est pas le plus grand succès de cette expérience.

lowercasenoises4.png

Vous pouvez constater qu’en une journée, j’ai ajouté plus de 450 noms à mon carnet d’adresses. Ce sont 450 nouveaux contacts dont je pourrais bénéficier à l’avenir, et 450 personnes de plus qui peuvent à leur tour relayer l’info si jamais je venais à répéter ce genre d’opération. C’est bien plus important à mes yeux que l’argent.

Récapitulatif

Donc, que s’est-t-il passé là?

  • Beaucoup de personnes ont récupéré ma musique gratuitement ;
  • J’ai gagné beaucoup d’argent de manière inattendue ;
  • J’ai de nouveaux auditeurs et des contacts pour mes prochaines sorties d’albums.

D’après moi, c’est du gagnant-gagnant. Il n’y a vraiment eu aucun coût pour moi à réaliser cette expérience, les gains se sont avérés énormes et mes auditeurs n’ont pas été abusés. Pour ne rien vous cacher mon taux de téléchargements payants a baissé de 22% à 8%, mais étant donné tout ce qui est arrivé, cela ne me gêne pas le moins du monde.

Alors, que cela signifie-t-il pour vous en tant qu’artiste ? C’est un peu plus dur à dire, étant donné que cela dépend de ce que vous avez mis en place et que la situation de chacun est différente. Mais, cela montre au moins l’importance de l’expérimentation. N’hésitez pas à essayer des choses pour voir à quoi vos fans vont réagir. Vous devez apprendre d’eux comme ils ont appris de vous.

Question : Et vous, avez-vous déjà proposé votre musique gratuitement ou bien à prix libre ? Cela a-t-il fonctionné ?

Crédit photo : Knate Myers




Rien ne serait arrivé sans la loi de Moore

La loi de Moore (qui n’est en fait qu’un conjecture) affirme que le nombre de transistors des microprocesseurs sur une puce de silicium double tous les deux ans. Ce qui, par extension, a donné pour le grand public que le rapport entre la puissance d’un ordinateur et son prix double tous les dix-huit mois.

Autrement dit, les machines sont de plus en plus puissantes et de moins en moins chères.

C’est bien ce qu’il s’est produit et se produit encore, pour le plus grand bonheur du logiciel libre et sa culture…

Leonardo Rizzi - CC by-sa

Un allié secret de l’open source : la loi de Moore

Open source’s secret ally: Moore’s Law

Glyn Moody – 10 octobre 2012 – The H
(Traduction : KoS, ProgVal, Sylvain, greygjhart)

Linux est passé du statut de petit bidouillage sympa dans une chambre à celui de logiciel capable de changer le monde il y a un peu plus de 21 ans lorsque Linus a envoyé son fameux message : « Bonjour aux utilisateurs de minix », invitant les gens à le rejoindre. Comme je l’ai remarqué le mois dernier, cette approche ouverte, collaborative était tout à fait nouvelle et s’est avérée décisive dans l’adoption et le développement de Linux.

Cela fut possible car Internet était déjà suffisamment présent pour qu’assez de gens se joignent à l’équipe de volontaires de Linus en faisant jouer à plein l’intelligence distribuée. En d’autres termes, l’émergence du logiciel libre est intimement liée à internet. En effet, le décollage rapide de Linux, comparé aux progrès plutôt lents du projet GNU est probablement dû, au moins en partie, au fait que ce dernier ne pouvait se reposer sur une connectivité globale. C’est grâce à cela que Richard Stallman a pu vivre des ventes de GNU Emacs, qu’il distribuait sur des bandes magnétiques.

La nature symbiotique du logiciel libre et d’internet, le premier utilisant le second, le second étant utilisé par le premier, est maintenant largement reconnue. Mais un autre facteur clé dans l’apparition de l’open source a été sous-estimé, alors que Linus lui-même le mentionne dans ce fameux premier message :

Je programme un système d’exploitation (gratuit, c’est juste un passe-temps, ça ne sera pas un gros projet professionnel comme GNU) pour des clones AT 386(486).

Comme nous vivons à l’ère Intel depuis deux décennies, une ère qui touche peut-être à sa fin, avec la montée en puissance des smartphones et des tablettes et leurs processeurs de familles différentes, il est facile de négliger l’importance du fait que Linus développa Linux pour les processeurs 80386.

Aussi étrange que cela puisse paraître , l’ordinateur principal de Linus avant qu’il n’écrive Linux était un Sinclair QL, un ordinateur typiquement anglais qui utilisait le processeur Motorola 68008 (qui fonctionnait à 7,5 MHz), fourni avec 128K de RAM et utilisait un infâme microdrive comme stockage.

Passer à un PC 386, fonctionnant à 33MHz, avec 8 Mo de RAM et 40Mo de disque dur, était un véritable bond en avant pour Linus, et poussa ses finances à leurs limites. En fait, il n’a pu acheter son premier PC que le 5 janvier 1991 parce qu’il reçut de l’argent pour Noël qu’il ajouta à un prêt étudiant que le gouvernement Finlandais lui avait récemment accordé. Ce dernier était censé payer sa nourriture et son logement pendant qu’il étudiait à l’université d’Helsinki mais comme il vivait toujours avec sa mère pendant cette période, il réussi à le détourner pour un usage plus intéressant.

Le fait qu’il puisse se payer un système aussi performant reposait sur l’amélioration continuelle du matériel, couplée à la diminution régulière des prix. C’est à dire que c’est grâce à la loi de Moore, qui dit que le ratio entre performances et prix double tous les 18 mois environ, que Linus a pu se retrouver avec le système 386 qu’il mentionne dans le premier message sur Linux.

Sans la loi de Moore, il serait sans doute resté avec son Sinclair QL, codant pour un système dont peu de gens se souciaient. Avec le 386, il a pu rentrer dans le courant dominant de l’informatique en même temps que de nombreuses autres personnes. Partout dans le monde (ou en tout cas dans les zones les plus riches) les jeunes gens ont pu s’acheter de vrais ordinateurs basés sur l’Intel 80386 et (plus tard) 80486. Cela signifiait qu’ils pouvaient faire tourner le code de Linux dès ses débuts, et aussi qu’ils pouvaient contribuer.

Encore une fois, sans la loi de Moore mettant des ordinateurs moins chers dans les mains de bidouilleurs, Linus n’aurait pas été en mesure de construire cette communauté mondiale à travers Internet et le rythme de développement en aurait souffert. En effet, comme la loi de Moore continuait de tirer les prix vers le bas tout en augmentant les performances, de plus en plus de gens dans un nombre croissant de pays ont pu acquérir des PCs suffisamment puissants pour rejoindre le projet Linux. Des processeurs plus rapides signifiaient des temps de compilation plus courts pour les programmes ce qui rendait le bidouillage du code plus facile – et plus agréable.

Il y a ici un contraste intéressant avec le développement du logiciel propriétaire. Les avancées dues à la loi de Moore ne profitent que peu aux programmeurs dans les entreprises, puisqu’ils ont généralement du matériel assez bon. Et les entreprises n’en bénéficient guère plus, puisque ce qui coûte le plus dans la programmation est le salaire des programmeurs, pas le prix de leurs PCs. Dans le monde du logiciel libre, les programmeurs volontaires sont bénévoles et le facteur limitant est le prix du matériel. C’est pourquoi la loi de Moore est très avantageuse pour l’open source.

Potentiel futur

Ce n’est pas un effet purement historique des premières heures de Linux. Nous voyons encore aujourd’hui la Loi de Moore tirer les prix vers le bas en accueillant toujours plus d’utilisateurs. Un bon exemple est le mini-ordinateur Raspberry Pi. Il offre les bases de la puissance d’un PC sur une petite carte mère, à un prix minuscule. Cela signifie que non seulement les personnes ordinaires – même des enfants – peuvent l’acheter sans avoir à penser au prix, mais aussi que les écoles peuvent envisager d’en acheter un pour chaque étudiant, ce qui est normalement inenvisageable avec les prix prohibitifs des PC, même ceux bon marché.

L’effet que le Raspberry Pi aura sur l’éducation n’est pas encore clair, mais il semble que celui-ci ou l’un des nombreux systèmes semblables à prix très bas va permettre l’arrivée de nouveaux types de projets avec des nouveaux groupes de contributeurs, dans les pays émergents par exemple.

Et les choses sont déjà en train d’aller plus loin. Voici un projet Kickstarter qui illustre à merveille cette progression continue rendue possible grâce à la loi de Moore. Il s’agit de Parallella. l se décrit comme un « Supercalculateur Grand Public », et ce n’est pas une blague.

Une fois terminé, l’ordinateur Parallella devrait fournir l’équivalent d’un processeur à plus de 45Ghz sur un circuit de la taille d’une carte de crédit tout en consommant moins de 5 Watts en fonctionnement normal. En s’en tenant seulement à la fréquence, c’est plus de puissance qu’un serveur haut de gamme qui coûte des milliers de dollars et consomme 400W.

Important, tout le système sera ouvert :

  • Accès ouvert : absolument aucun accord de non divulgation ou accès spéciaux nécessaires ! Toute l’architecture et le kit de développement seront publiés sur le web dès que le projet sera financé sur Kickstarter.
  • Open Source: la plateforme Parallella sera basée sur des outils et des bibliothèques libres et gratuites. Tous les fichiers de conception des circuits seront fournis une fois que Parallella sera sur le marché
  • Bon marché : les coûts du matériel et des outils de développement ont toujours été une barrière très difficile à franchir pour les développeurs cherchant à écrire des applications haute-performance. Notre but est de fournir l’ordinateur haute-performance Parallella à un coût inférieur à 100$, le rendant accessible à tous.

Oui, c’est un super ordinateur à 45GHz, fourni en standard avec Ubuntu, pour moins de 100$. Si Parallella parvient à sortir cela – et en tant que projet Kickstarter (il y a toujours le risque qu’il ne soit pas totalement financé ou qu’il ne fonctionne pas correctement) il va mettre un nouveau niveau de puissance de calcul entre les mains de tout le monde, y compris les étudiants.

Potentiellement, cela va permettre à des gens qui, jusqu’à présent, ne pouvaient tout simplement pas s’acheter une telle puissance de calcul de démarrer une toute nouvelle génération de projets open source. Encore une fois, le principal bénéficiaire ici est l’open source : si une entreprise a besoin d’un supercalculateur, elle va généralement l’acheter immédiatement, puisqu’elle peut se permettre de payer un prix conséquent pour les modèles actuels. Ce que Parallella apporte, grâce à la loi de Moore, est la démocratisation d’une puissance de calcul de cet ordre, qui ne va plus être réservée à des projets commerciaux disposant de solides fonds.

Il est important de noter que c’est la loi de Moore, agissant sur le matériel qui apporte ces bénéfices, plutôt que n’importe quel changement exponentiel dans le logiciel (qui n’y contribue qu’indirectement). De plus des lois de Moore pour d’autres types de matériel commencent également à prendre forme. Un exemple frappant en est l’impression 3D, où les prix baissent régulièrement. Ou encore le monde du séquençage du génome, démêler les milliards de « lettres » chimiques qui forment la double hélice de l’ADN, qui voit l’arrivée de changements encore plus importants.

Vous savez peut-être que le coût de séquençage du génome baisse mais vous n’avez peut-être pas la moindre idée de la vitesse à laquelle il baisse. Le National Human Genome Research Institute qui fait partie du National Institute of Health américain a compilé des données étendues sur le coût de séquençage de l’ADN au cours de la dernière décennie et a utilisé ces informations pour créer deux graphique à couper le souffle. Les chercheurs du NHGRI montrent que non seulement les coûts de séquençage sont en chute libre mais ils dépassent la courbe exponentielle de la loi de Moore d’une grande marge.

Cela signifie que le coût de séquençage de votre génome, ou de n’importe quel autre organisme, va bientôt devenir à la portée de tout le monde. Cela va-t-il créer une communauté globale de bio-hackers libristes, menée par un nouveau Linus avec un séquenceur de bureau (et peut-être un supercalculateur Parallella) dans sa chambre à coucher ? L’expérience des logiciels libres suggère que oui et nous apprend que nous ne devrions jamais sous-estimer le simple pouvoir de la loi de Moore à conduire des changement inattendus et révolutionnaires.

Crédit photo : Leonardo Rizzi (Creative Commons By-Sa)




Sortie du projet Framacalc, qui se veut être au tableur ce que Framapad est au texte !

Framacalc

Et hop, encore un nouveau projet pour le tentaculaire réseau Framasoft ! Il s’appelle Framacalc et il ambitionne de proposer le même service que Framapad mais pour le tableur cette fois.

Pour rappel, Framapad c’est la possibilité de faire du traitement de texte collaborativement en ligne (nous allons du reste vous en proposer une spectaculaire mise à jour très bientôt). Et pour le tableur me direz-vous ? C’est là qu’intervient Framacalc.

Avec Framacalc donc vous vous retrouvez à travailler à plusieurs sur le même tableur toujours accessible sur Internet.

Vous piaffez déjà d’impatience ? Alors rendez-vous tout de suite sur le site dédié pour le tester.

Attention, quand bien même les fonctionnalités tableur sont déjà bien avancées, celles concernant la collaboration et l’exportation sont encore rudimentaires. Ainsi, contrairement à Framapad, on n’est pas capable de savoir qui se cache derrière telle ou telle édition, même si on observe bien les éditions des autres se faire en temps réel. Il n’y a pas non plus encore de fenêtre de chat et l’export ne se fait pour le moment qu’au format HTML.

Il y a encore du boulot donc (mais cela peut déjà convenir pour de nombreuses situations simple et non confidentielles, on pense notamment à l’éducation).

Tout comme Framapad, il y a une solution libre qui se cache derrière. Il s’agit du projet EtherCalc (avec du Node.js sous le capot). Il est déposé ici sur GitHub et, il va sans dire que nous encourageons les installations individuelles car, Framacalc ou Framapad, les projets Framasoft sont aussi voire surtout là pour que le cloud se décentralise librement (et finisse par contrarier ces capteurs de données personnelles que sont Google, Facebook ou Apple).

Avec Framapad + Framacalc, Google Documents n’a qu’à bien se tenir ? Nous n’en sommes pas encore là mais, un jour, qui sait… 🙂

-> Framacalc : Tableur collaboratif en ligne du réseau Framasoft

PS : Nous vous rappelons que ce service libre et gratuit est l’un des nombreux projets du réseau Framasoft qui ne vit que par vos dons. Pour en assurer la pérennité et le développement, merci de soutenir notre association si vous le pouvez/souhaitez.




La troisième révolution industrielle est en marche et nous pouvons tous y participer

La « troisième révolution industrielle » est une expression popularisée par un récent essai de Jeremy Rifkin. Mais s’il se penche attentivement sur la question de l’énergie, qu’il envisage durable et distribuée, il se montre moins prolixe sur la question de la production.

Or là aussi de profonds bouleversements nous attendent…

Je casse une assiette aujourd’hui. Je prends ma voiture pour aller chez Ikea en acheter une autre (construit en Chine). Je casse une assiette demain. Je vais chercher sur Internet le fichier numérique « assiette », puis je demande à mon imprimante 3D de m’en créer une nouvelle sous mes yeux ébahis.

Et là où ça devient encore plus intéressant c’est quand l’imprimante tout comme le fichier sont libres, m’assurant alors que j’aurais une grande variétés de fichiers « assiette » à télécharger et que je pourrais même les modifier à ma guise avant de les imprimer 🙂

Pasukaru76 - CC by

La Troisième Révolution industrielle

The third industrial revolution

The Economist – Avril 2012
(Traduction : Louson, Lolo le 13, angezanetti, Fe-lor, GPif, xaccrocheur, @poulpita, fck, Coyau)

La numérisation de la fabrication modifiera la manière de fabriquer les biens ainsi que la notion même de travail.

La première révolution industrielle commença à la fin du XVIIIe siècle, avec la mécanisation de l’industrie du textile. Les tâches qui avant étaient exécutées laborieusement à la main par des centaines de petites industries de tisserand ont été réunies en une seule fabrique, et l’usine était née. la seconde révolution industrielle arriva au début du XXe siècle quand Henry Ford maîtrisa l’évolution des lignes d’assemblage et conduit à l’âge de la production de masse. Les deux premières révolutions rendirent les gens plus riches et plus urbains. Maintenant une troisième révolution est en cours. La fabrication devient numérique. Elle risque pas de ne changer que les affaires, mais bien plus de choses encore.

De nombreuses technologies innovantes convergent : logiciels, nouveaux matériaux, robots plus habiles, nouveaux procédés (en particulier l’impression 3D) et une large variété de services web. L’usine du passé reposait sur la production en masse de produits identiques : Ford disait que les acheteurs de voiture pouvaient avoir la couleur qu’ils voulaient, tant que c’était noir. Mais le coût de production de lots plus petits, d’une plus grande variété, où chaque produit est fait précisément sur mesure selon le vœu de chaque client, est en train de chuter. L’usine du futur se concentrera sur la personnalisation de masse et ressemblera bien davantage à de toutes petites industries qu’à la ligne de montage de Ford.

Vers une troisième dimension

Autrefois, pour faire des choses, on vissait et on soudait. Maintenant un produit peut être conçu sur un ordinateur et « imprimé » sur une imprimante 3D, qui crée un objet en volume en accumulant des couches successives de matière. La conception numérique peut être ajustée en quelques coups de souris. L’imprimante 3D peut fonctionner sans surveillance et peut faire des objets trop complexes pour être produits dans une usine traditionnelle. Un jour, ces machines étonnantes pourront faire presque tout, partout, dans votre garage ou dans un village en Afrique.

Les applications d’impression 3D sont particulièrement époustouflantes. Déjà, les prothèses auditives, et les parties haute technologie des avions militaires sont imprimées avec des formes adaptées. Un ingénieur travaillant au milieu du désert, à qui il manquerait un certain outil n’a plus besoin de se le faire livrer dans la ville la plus proche. Il peut simplement télécharger le design et l’imprimer. Les jours où les projets sont arrêtés pour cause de pièce manquante, ou encore, lorsque les clients se plaignent de ne plus pouvoir trouver les pièces de rechange de ce qu’ils avaient achetés, seront bientôt de lointains souvenirs.

Les autres changements sont presque aussi capitaux. Les nouveaux matériaux sont plus légers, plus résistants et ont une durée de vie plus longue que les anciens. Les fibres de carbone remplacent l’acier et l’aluminium pour des produits allant du VTT aux avions de ligne. Les nouvelles techniques permettent aux ingénieurs de réduire la taille des objets. Les nanotechnologies donnent de nouvelles fonctions aux produits comme les bandages qui guérissent les coupures, les moteurs avec un rendement supérieur ou de la vaisselle qui se nettoie plus facilement. Les virus crées génétiquement sont développés pour être utilisés comme batteries. Et, avec Internet qui permet aux designers de collaborer sur les nouveaux produits, les barrières d’entrées sont en train de s’effondrer. Ford avait besoin d’un gros tas de capital pour construire sa colossale usine River Rouge; son équivalent moderne peut commencer avec trois fois rien dont un ordinateur portable connecté et la soif d’inventer.

Comme toutes les révolutions, celle-ci sera fortement perturbatrice. La technologie numérique a déjà renversé les média et la vente au détail, comme les filatures de coton ont écrasé les métiers à tisser manuels et la Ford T a mis les maréchaux-ferrants au chômage. Les gens seront extrêmement surpris devant les usines du futur. Elle ne seront pas pleines de machines crasseuses commandées par des hommes en blouse graisseuse. Beaucoup seront d’une propreté irréprochable et quasi-désertes. Certains fabricants de voitures produisent le double de véhicules par employé qu’il y a dix ans. La plupart des emplois ne sera plus dans les usines mais dans les bureaux non loin, qui seront pleins de designers, d’ingénieurs, d’informaticiens, d’experts en logistique, de commerciaux et d’autre professions. Les emplois manufacturiers du futur demanderont d’avantage de compétences. De nombreuses taches répétitives et ennuyeuses deviendront obsolètes : on n’a pas besoin de riveteur quand un produit n’a plus de rivets.

La révolution n’affectera pas seulement la façon dont les choses sont faites, mais aussi le lieu où elles sont produites. Avant les usines se délocalisaient dans des pays à bas salaires pour diminuer le coût du travail. Mais le coût du travail est de moins en moins important : un iPad de première génération à 499 $ comprend aujourd’hui seulement 33 $ de travail manufacturé sur lequel l’assemblage final en Chine ne représente que 8 $. La production aujourd’hui offshore va de plus en plus souvent revenir dans les pays riches, bien moins à cause d’une hausse des salaires chinois que parce que les compagnies veulent désormais être plus proches de leurs clients de façon à pouvoir répondre plus rapidement à leurs demandes de modifications. Et certains produits sont si sophistiqués qu’il est pratique d’avoir les personnes qui les ont conçus et celles qui les ont fabriqués au même endroit. Le Boston Consulting Group estime que dans des domaines comme les transports, les ordinateurs, la fabrication de produits métalliques et la machinerie, 10 à 30 % des biens que les américains importent actuellement de Chine pourraient être fabriqués à domicile d’ici 2020, stimulant l’exportation américaine de 20 à 55 milliards de dollars par an.

Le choc de la nouveauté

Les consommateurs auront peu de difficultés à s’adapter à cette nouvelle ère de meilleurs produits rapidement livrés et créés près de chez eux. Les gouvernements pourraient toutefois commencer par résister au mouvement. Leur instinct est de protéger les industries et les entreprises qui existent déjà plutôt que de promouvoir les nouvelles qui les détruiront. Ils attirent les anciennes usines avec des subventions et stigmatisent les patrons qui voudraient délocaliser. Ils dépensent des milliards dans de nouvelles technologies qui, à leur avis, prévaudront dans l’avenir. Et ils s’accrochent à la croyance romantique que la fabrication est supérieure aux services, sans prendre en compte la finance.

Rien de ceci n’a de sens. Les frontières entre la manufacture et les services deviennent floues. Rolls-Royce ne vend plus de réacteurs, elle vend les heures pendant lesquelles chaque moteur propulse un avion dans le ciel. Les gouvernements ont rarement choisi les vainqueurs, et ils vont probablement mettre du temps à voir ces légions d’entrepreneurs et de bricoleurs qui s’échangent des plans en ligne, les transforment en produits chez eux et les vendent à l’échelle mondiale depuis un garage.

Pendant que la révolution gronde, les gouvernements devraient en rester aux bases : de meilleures écoles pour une main d’œuvre qualifiée, des règles claires et équitables pour les entreprises de toutes sortes. Laissez le reste aux révolutionnaires.

Crédit photo : Pasukaru76 (Creative Commons By)




Quand il faut libérer ses propres données pour traiter un cancer du cerveau

Fondateur notamment du collectif Art is Open Source, Salvatore Iaconesi est un hacker, artiste, raver, ingénieur présent depuis une dizaine d’années sur la scène italienne. J’ai eu l’occasion de le rencontrer lors de mon séjour romain.

Très triste nouvelle : il souffre d’une tumeur au cerveau.

Il demande à Internet, c’est-à-dire à la planète entière, de l’aider en publiant ses données personnelles médicales.

Sauf qu’il lui aurait été impossible de lancer cet appel s’il n’avait craqué lui-même ses propres données encapsulées nativement dans un format fermé et propriétaire, démontrant une nouvelle fois l’absurdité du système.

C’est pourquoi il a prénommé son appel « mon traitement open source », que nous vous proposons traduit en français ci-dessous.

Transmediale - CC by-nc-sa

Mon traitement open source

my Open Source Cure

Rome, le 10 septembre 2012
(Traduction : Unagi, lilian, Vincent)

J’ai un cancer du cerveau.

Hier, j’ai reçu mes résultats médicaux, sous forme numérique. Je dois les montrer à plusieurs médecins.

Malheureusement, ces fichiers sont dans un format fermé et propriétaire, et donc je n’ai pas pu les ouvrir avec mon ordinateur, ou les envoyer dans ce format à toutes les personnes qui auraient pu me sauver la vie.

Je les ai craqués.

J’ai ouvert les fichiers et je les ai convertis en formats ouverts pour pouvoir les partager avec tout le monde.

Aujourd’hui seulement, j’ai pu partager les données médicales (à propos de mon cancer du cerveau) avec 3 docteurs.

Deux d’entre eux ont déjà répondu.

J’ai pu faire cela parce que les données utilisées étaient dans des formats ouverts et accessibles : ils ont ainsi pu ouvrir les fichiers sur leurs ordinateurs ou tablettes. Ils ont pu répondre de chez eux, un dimanche.

Je publierai progressivement toutes les réponses que je recevrai, en utilisant des formats ouverts, afin que n’importe qui avec la même maladie puisse bénéficier des solutions que je trouverai.

Ceci est un TRAITEMENT. C’est mon TRAITEMENT OPEN SOURCE.

Ceci est une large invitation à participer au traitement.

TRAITEMENT, n’a pas la même siginification selon les cultures.

Il y a des traitements pour le corps, pour l’esprit, pour la communication.

Prenez les informations sur ma maladie, si vous voulez, et donnez-moi un TRAITEMENT : créez une vidéo, une oeuvre d’art, une carte, un poème, un jeu, ou essayez de trouver une solution à mon problème de santé.

Artistes, designers, hackers, scientifiques, médecins, photographes, vidéastes, musiciens, écrivains. N’importe qui peut me donner un traitement.

Créez votre traitement en utilisant le contenu que vous trouverez dans la section DATI/DATA de ce site, et envoyez le à info@artisopensource.net.

Tous les TRAITEMENTS seront diffusés ici.

Crédit photo : Transmediale (Creative Commons By-Nc-Sa)




« Chanter sans autorisation » : introduction aux enjeux du libre

Woody Guthrie (Commons PD)This Machine Kills Fascists…

Quand, dans le Monde diplomatique il est question du numérique en général et du Libre en particulier il y a de bonnes chances pour que l’article soit signé Philippe Rivière (alias Fil) et ce depuis près de quatorze ans.

Il faut dire qu’être l’un des papas de SPIP lui donne une certaine expérience, pour ne pas dire une expérience certaine.

Il a publié en juillet dernier, dans le magazine culturel en ligne Rictus.info, un papier qui synthétise bien la situation et que nous aimerions plus encore faire connaître, d’où cette reproduction.

« Il faut inventer un autre modèle, et pour cela, personne ne sait encore s’il faudra casser l’ancien, ou s’il saura s’adapter. »

« Chanter sans autorisation » : introduction aux enjeux du libre

URL d’origine du document (Rictus.info)

Philippe Rivière – juillet 2012 – Licence Creative Commons By-Sa

À l’occasion des Rencontres Mondiales du Logiciel Libre, nous avons demandé à Philippe Rivière[1], de nous faire un petit tour d’horizon de la question du logiciel libre. Exposé des forces en présence et des enjeux.

Un peu de musique

Au début des années 1940, sur ses premiers disques, le compositeur américain Woody Guthrie avait fait inscrire la mention suivante sous le titre Copyright Warnings :

« Cette chanson est protégée aux États-Unis sous le sceau du copyright #154085 pour une période de 28 ans, et toute personne prise à la chanter sans autorisation sera mon meilleur ami, car je n’en ai rien à fiche. Publiez-la. Ecrivez-la. Chantez-la. Dansez dessus. Yodelez-la. Je l’ai écrite, c’est tout ce que je voulais faire. »

Aujourd’hui, chaque fois que vous insérez un film dans votre lecteur DVD, vous devez endurer une très longue présentation avec des écrans affreux du style :

« WARNING. La reproduction ou la redistribution non autorisée de cette œuvre copyrightée est illégale. Une violation criminelle de ce copyright, même sans gain monétaire, sera suivie d’une enquête du FBI et est punissable d’une peine d’emprisonnement allant jusqu’à cinq ans dans une prison fédérale, et d’une amende de 250 000 dollars »

Drôle de manière de vous remercier d’avoir acheté le DVD.

Dans l’informatique, c’est la même chose : les auteurs de logiciels ont deux possibilités pour s’adresser à leur public — c’est-à-dire les utilisateurs ; soit ils leur font signer une clause légale expliquant qu’il faut faire très attention à d’utiliser le logiciel comme il convient, si on veut avoir quelques chances de ne pas aller en prison. Soit ils leur disent : que toute personne prise à jouer avec ce logiciel comme elle l’entend sera mon meilleur ami !

Dans le premier cas, on parle de logiciel propriétaire (ou privateur), dans le second, de logiciel libre.

Logiciel capturé

Le logiciel n’est pas né en cage. Les premiers programmes étaient comme des formules de maths ou des recettes de cuisine : en dollars, ils ne valaient rien, puisqu’on les donnait avec la machine — qui, elle, coûtait très cher.

Comme l’écrit Lawrence Lessig, un juriste américain spécialisé dans le droit d’auteur :

« Vous ne pouviez pas faire tourner un programme écrit pour une machine Data General sur une machine IBM, donc Data General et IBM ne se préoccupaient pas de contrôler leur logiciel. »

Mais bien évidemment leur valeur était énorme, puisque sans programmes, l’ordinateur se limitait à allumer un C> clignotant sur un écran noir… Ce qu’un certain Bill Gates avait bien compris, c’est que le contrôle du logiciel permet de mettre la main sur l’ensemble du dispositif : IBM, la gigantesque firme américaine, ne l’avait pas compris. Elle voulait vendre des ordinateurs personnels, et se fichait bien de savoir ce qui fonctionnerait dessus : pressée d’arriver sur le marché, elle y a installé MS-DOS, un logiciel fourni par le jeune Bill Gates… on sait ce qu’il est advenu de ce choix : Microsoft, l’éditeur de MS-DOS, est rapidement devenu le plus gros éditeur de logiciels, et continue aujourd’hui à prélever une rente énorme sur l’ensemble des usages de l’informatique.

Free Software Foundation et licence GPL

De son côté, un certain Richard Stallman, chercheur au MIT, à Boston, s’était habitué, comme tous les informaticiens des années 1970, à bidouiller les programmes qui se trouvaient sur ses machines, pour les améliorer ou les adapter à la configuration de son matériel. Ça faisait partie de la normalité dans l’informatique, et encore plus dans le monde universitaire ; il aimait le sens de la communauté qui se développait autour de la programmation. Des échanges d’astuces, des concours pour être le premier à trouver une solution, etc.

Mais un jour, il s’aperçut que le code du logiciel pilote d’une imprimante n’était pas livré avec la machine, et qu’il ne pouvait donc pas le modifier — seulement le faire tourner, sans savoir ce qui était programmé exactement. S’il y avait un bug, il fallait contacter l’éditeur pour signaler le problème, et attendre une hypothétique nouvelle version… qui viendrait sans doute plus tard, et qu’il faudrait, en plus, à nouveau payer. On était au début des années 1980. Ce genre de choses commençait à se répandre, et Stallman comprit que les logiciels, qui étaient nés libres, ne le resteraient pas si personne ne les défendait. Il faudrait les protéger, sur le plan légal ; et les structurer d’une manière efficace. Il décida d’en faire son combat.

En 1984, Stallman démissionna du MIT (pour ne pas avoir de liens hiérarchiques qui pourraient lui coûter son indépendance), et fonda le projet GNU, puis la Free Software Foundation. D’un côté, un projet technique, consistant à fabriquer un système d’exploitation totalement libre — c’est-à-dire sans aucun composant propriétaire. De l’autre, une fondation dédiée à la protection du logiciel libre.

Il écrivit de nombreux logiciels (le plus connu est peut-être l’éditeur de texte Emacs). Et en parallèle, fit un travail juridique qui aboutit à la Licence publique générale GNU, la « GPL ». Elle est nettement moins « fun » que la licence de Woody Guthrie, mais elle garantit à tout utilisateur :

  • le droit d’utiliser le logiciel pour faire ce qu’il veut
  • le droit de lire le code source du logiciel, c’est-à-dire les éléments qui permettent de comprendre ce qu’il fait
  • le droit de modifier ce code source
  • le droit de redistribuer le logiciel ainsi que les versions modifiées.

Pour bénéficier de cela, l’utilisateur s’engage en échange à passer ces mêmes droits aux personnes à qui il le redistribue.

Bien sûr, tout le monde n’a pas forcément envie d’aller modifier le code… mais savoir que quelqu’un peut le faire, c’est avoir une certaine garantie.

Pour une entreprise, par exemple, c’est l’assurance que, si on n’est pas satisfait du prestataire à qui on a demandé de programmer quelque chose, ou s’il disparaît, on pourra légalement aller en voir un autre sans devoir repartir de zéro. C’est important.

Libertés pour l’utilisateur

Pour un particulier, on peut apprécier le fait que les logiciels libres sont souvent gratuits, ou en tous cas moins chers que les logiciels propriétaires. Cela dit, il ne faut pas confondre libre et gratuit ; « free » software, c’est « free » comme « freedom », pas comme « free beer ». Il y a des logiciels gratuits qui ne sont pas libres. Et, vice versa, pour développer un logiciel libre il faut quand même parfois que quelqu’un travaille…

Mais le plus important, pour l’utilisateur, n’est pas dans la gratuité : c’est que l’informatique touche de plus en plus aux libertés quotidiennes. Sur l’ensemble de la planète, à part quelques irréductibles hommes des cavernes, chacun porte en permanence sur soi un mouchard qui signale à tout instant où il se trouve précisément. Ce mouchard, cinq milliards d’humains en sont équipés. Il sert, parfois, à téléphoner…

L’informatique est aussi dans les voitures ; bientôt dans les frigos ; dans les habits, avec les puces RFID ; dans les passeports biométriques ; dans les cartes d’électeur – les machines à voter ! – ; il faut aller sur Internet pour voir les notes de collège de ses enfants ; on parle de numériser toutes les données de santé dans un « dossier médical personnel » accessible sur Internet (certains l’appellent dossier médical « partagé », car il est tout de même difficile à l’heure de WikiLeaks de prétendre qu’on saura empêcher le piratage…).

Discuter, s’informer, créer, partager, faire de la politique… tout ça est en train de s’informatiser, et si on ne contrôle pas collectivement les machines autour desquelles se construit de plus en plus la vie sociale, ce sont les machines qui nous contrôleront … ou plus exactement, ceux qui les programment.

Un seul exemple : vous avez entendu parler de Kindle, le livre électronique vendu par Amazon.com ; c’est génial, vous pouvez acheter et télécharger des dizaines de livres, et les lire sur un petit écran. Un jour donc, en juillet 2009, les commerciaux d’Amazon s’aperçoivent qu’ils ont fait une boulette dans leur offre : ils ont vendu électroniquement un livre pour lequel ils ne disposaient pas des droits de reproduction.

Ni une ni deux, que font-ils ? Ils attendent que les Kindle des clients se connectent, et leur envoient l’instruction d’effacer le livre. De quel livre s’agit-il ? « 1984 », de George Orwell, le livre qui décrit Big Brother et la police de la pensée !

Succès ou échec ?

Je ne vais pas énumérer les succès du logiciel libre : en 1990, un étudiant en informatique de l’université de Helsinki, Linus Torvalds, aimerait bien utiliser chez lui le programme sur lequel il travaille à l’université, un « noyau ». Il repart donc de zéro et crée son propre « noyau », qu’il place sans guère y accorder de réflexion sous la licence GPL. Ce sont les débuts d’Internet dans les facs, et rapidement ce noyau se développe ; comme Stallman avait développé de nombreux morceaux de code de GNU, mais pas encore de noyau, les deux projets cohabitent et donnent naissance à ce qu’on appelle maintenant GNU/Linux.

Les logiciels libres sont partout ; ils font tourner des ordinateurs personnels, et l’essentiel d’Internet. Ils sont dans les labos de recherche, les entreprises, etc.

Et il n’y a pas que la GPL. D’autres licences libres existent, qui permettent parfois plus de souplesse, moins de contrainte pour des utilisateurs qui modifient le code pour l’utiliser dans des projets fermés. Pour des textes ou des photos, on peut préférer des licences comme les Creative Commons. Pour des librairies (morceaux de code qui peuvent servir de fondation à des logiciels plus élaborés), on peut exiger que toute modification de la librairie soit libre, mais sans exigence sur les logiciels élaborés en question. D’autres font des licences plus proches de celle de Woody Guthrie (« je m’en fiche »), comme la licence MIT, ou encore la WTFPL (Do What The Fuck You Want To Public License / licence publique rien à branler).

A l’heure actuelle, les smartphones sont dominés par deux systèmes : Apple iOS et Google Android, qui sont basés sur des logiciels libres. Bien sûr chez Apple, les logiciels ne sont pas du tout libres ; mais ils sont construits sur une fondation totalement libre, NetBSD. Quant à Android, il est tellement bardé de brevets qu’il n’est pas non plus vraiment libre. Mais enfin, il contient beaucoup de logiciels libres.

En termes quantitatifs, on peut parler d’un succès : ce qui était perçu par les médias comme « marginal » est désormais au centre du tissu économique et du développement de l’informatique.

D’après une étude publiée en 2010[2] : Le secteur est estimé à 1,5 milliard d’euros en France, avec un taux de croissance moyen de 17 % (par an). Environ la moitié des directeurs informatiques interrogés lors de l’étude ont déclaré utiliser des logiciels libres et ce, quelle que soit la taille de l’entreprise.

La guerre contre le libre

Il y a la menace juridique : en ce moment, c’est la guerre des brevets. Google a racheté en août 2011 le fabricant de téléphones portables Motorola pour 12,5 milliards de dollars, dans le but de mettre la main sur 25 000 brevets ! Or on dépose actuellement des brevets sur tout et n’importe quoi, avec des effets très curieux. Des menaces de procès et des bras de fer judiciaires qui aboutissent à des accords entre les grandes sociétés qui possèdent ces portefeuilles de brevets.

Enfin, il y a la menace plus directe de la prise de contrôle de l’ordinateur. Au nom bien entendu de votre sécurité. Par exemple, ce qu’on appelle « l’informatique de confiance », un terme censé nous rassurer, est une stratégie qui interdit à tout logiciel qui n’est pas reconnu et « signé » par une société comme Microsoft, ou Apple, de s’exécuter sur votre machine.

Ou encore, au nom de la protection des droits d’auteurs, la loi HADOPI qui nous impose l’obligation de « sécuriser notre réseau ». Alors que même l’armée américaine n’est pas capable d’empêcher des documents de « fuiter » !

Les iPhone sont eux-mêmes totalement verrouillés et il faut passer exclusivement par le magasin en ligne d’Apple pour modifier le logiciel (même si techniquement il reste possible de « jailbreaker », ce n’est pas autorisé par le constructeur).

Et je passe sur les projets qui se multiplient au nom de la lutte contre le piratage, contre la criminalité ou contre le terrorisme (SOPA, ACTA, HADOPI, LOPPSI, DMCA, etc), sans parler de la surveillance des communications qui se pratique plus ou moins illégalement et de façon massive[3]. Aux États-Unis, l’association des producteurs de musique, la MPAA, demande que ce qui marche en Chine (la « grande muraille électronique » qui permet au pouvoir de surveiller les internautes) soit appliqué à l’ensemble de l’Internet !

Pour la FSF : « Le logiciel libre permet d’avoir le contrôle de la technologie que nous utilisons dans nos maisons, nos écoles, nos entreprises, là où les ordinateurs travaillent à notre service et au service du bien commun, et non pour des entreprises de logiciels propriétaires ou des gouvernements qui pourraient essayer de restreindre nos libertés et de nous surveiller. »

Pour le romancier Cory Doctorow (et excellent blogueur), les États et les entreprises se préparent à une « guerre à venir sur la computation à but général », et « l’ordinateur dont le contrôle complet est accessible à l’utilisateur est perçu comme une menace pour l’ordre établi ».

Biens communs

Et puis il y a la propagande.

Aujourd’hui, les manifestants d’Occupy Wall Street, qui contestent le système capitaliste, sont traités de « terroristes ». Ce qui pourrait permettre à la police de les pister, de placer des mouchards dans leur ordinateur, etc.

Déjà Bill Gates en 2005 voyait des rouges partout :

« Il y a certains communistes d’un genre nouveau, cachés sous différents masques, qui veulent se débarrasser des mesures incitatives dont bénéficient les musiciens, les cinéastes et les créateurs de logiciels. »

J’avoue que je ne suis pas totalement choqué par cette critique. Elle est maligne, car parmi les auteurs de logiciels libres il y a beaucoup de gens qui ne sont pas particulièrement de gauche, et même des « ultra-capitalistes » comme se définit par exemple le leader du Parti pirate suédois, Rickard Falkvinge. Mais en effet, quand on crée du logiciel libre, quand on défend le partage de la culture sur Internet, quand on construit des sites sur le Web, on produit, collectivement, un bien public. Qui appartient à tout le monde, et où chacun va pouvoir venir puiser à sa guise, et utiliser ce que vous avez fait pour faire avancer ses propres projets. Le savoir, la culture sont cumulatifs, nous sommes « des nains sur des épaules de géants »[4].

Au-delà du logiciel libre, il faut réfléchir à l’ensemble des biens communs informationnels : la science, la culture, l’amusement, le logiciel dans tous les domaines… Internet permet de les diffuser, mais comment mobiliser des ressources pour les produire, et comment les défendre ? Certainement pas en les enfermant derrière des murs de paiement, des systèmes de DRM provoquant l’autodestruction des fichiers… Il faut inventer un autre modèle, et pour cela, personne ne sait encore s’il faudra casser l’ancien, ou s’il saura s’adapter.

Crédit photo : Woody Guthrie NYWTS (Wikimedia Commons)

Notes

[1] Co-auteur de SPIP (le logiciel qui sert à publier ce site, mais aussi des milliers d’autres) et journaliste au Monde diplomatique

[2] Étude sur l’impact socio-économique du libre citée dans la presse

[3] Cf. l’article d’Antoine Champagne dans Le Monde diplomatique de janvier 2012

[4] Bernard de Chartres, XIIe siècle




Geektionnerd : Taxe Google

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

Source : Les journaux français souhaitent une “lex Google” (Le Monde)

Crédit : Simon Gee Giraudot (Creative Commons By-Sa)




Gardons nos smartphones ouverts avec le HTML5

Ah, les fameux App Stores et leurs effets pernicieux à plus d’un titre !

Ce système multiplie les coûts, les contraintes et les délais alors que la même application écrite dans le langage du Web et proposée directement aux visiteurs d’un site Web évite tous ces écueils.

En effet : non seulement le principe des App Stores autorise une entreprise privée à décider arbitrairement des seuls contenus auxquels les utilisateurs du monde entier auront le droit d’accéder, non seulement il permet d’enchaîner ces mêmes utilisateurs à un système d’exploitation donné (iOS, Android…)[1], mais surtout, si l’on en croit David Murphy — qui commercialise un outil d’aide à la création d’applications Web — dans le texte ci-après traduit, il est tout à fait contre-productif pour les entreprises désirant proposer une application à l’appui de leur business.

Si les arguments techniques et économiques permettent aux applications Web de triompher des applications natives servies dans les App Stores fermés, ne nous privons pas de les relayer car, au final, tout cela permettra de rendre un peu de liberté à l’utilisateur !

Toni Hermoso Pulido - CC by-sa

Voici pourquoi HTML5 est génial pour les mobiles

Why HTML5 Rocks For Mobile


David Murphy – août 2012 – Mobile Marketing
(Traduction Framalang : antistress, Goofy, Amine Brikci-N, ZeHiro)

HTML5 est partout cette année ! Google encourage son usage. Facebook est à fond dessus. Il est évident que HTML5 est l’avenir sur les mobiles. OK c’est super. Mais c’est quoi au juste HTML5, et que peut-il faire pour les mobiles ?

HTML5 est la dernière version de HTML — le standard de présentation et de structuration des contenus sur le World Wide Web. Un des grands progrès apportés par HTML5 est qu’il permet à des sites web de fonctionner comme des applications mobiles, en donnant aux développeurs des moyens de conception adaptés aux appareils mobiles et plus seulement aux ordinateurs de bureau ou portables. Cela signifie que les sites web peuvent être conçus pour s’adapter aux écrans des appareils mobiles et avoir une interface utilisateur facile à maîtriser et très fonctionnelle avec les écrans tactiles. Le terme utilisé pour cette technologie est « appli web » (web app).

Sur un plan pratique, il existe deux façons d’implémenter une appli web. La première consiste à concevoir des sites web pour qu’ils s’adaptent et s’affichent aussi bien sur un écran d’ordinateur que sur un écran de smartphone. La seconde revient à créer une appli spécifique qui s’ouvrira lorsqu’on accède au site web avec un appareil mobile.

Cette nouvelle approche dans la présentation des contenus pour mobiles abat certaines barrières — y compris celles du temps, de l’argent et de l’omniprésent App Store. Les portes sont maintenant largement ouvertes pour les individus et les petites entreprises. Les poids lourds de la profession sont aussi attirés par cette alternative, à mesure qu’ils prennent conscience de ses avantages.

Qui n’a pas son smartphone

Voici des données chiffrées sur le marché des mobiles : 50% de toutes les recherches locales sont effectuées aujourd’hui sur des appareils mobiles. Ceci est largement dû au fait que les possesseurs de smartphones sont plus nombreux que ceux qui ont des téléphones basiques aux États-Unis et dans d’autres pays.

Et malgré cela, la plupart des entreprises n’ont aucune solution à proposer pour le mobile — sans compter les bénéfices substantiels qu’ils pourraient en tirer. Malheureusement, le développement d’applications classiques est tout simplement bien trop coûteux en temps et en argent et trop technique. Alors sans plus tarder, voyons cinq bonnes raisons qui nous font penser que HTML5 va poursuivre sa forte croissance :

Ça n’est pas seulement pour les iPhones, mais pour TOUS les smartphones

Malgré tout le buzz que génère l’iPhone, il ne représente que 25% des parts de marché. Android domine le marché avec 50% des smartphones en Amérique du Nord et Blackberry s’en sort étonnamment bien du côté des tablettes. Les appli web fonctionnent sur tous les téléphones et tablettes tactiles populaires — vous permettant d’atteindre la quasi-totalité des clients. Ce n’est pas qu’une chose positive, c’est surtout crucial pour les affaires.

C’est abordable

Les applis web HTML5 sont développées pour un prix et un temps moitié moindres que les applications natives (basées sur du code machine). Développer des applications natives peut aussi être un cauchemar. Je répète : un cauchemar coûteux en temps et en argent. Développer pour une plateforme spécifique (iPhone, Android, Blackberry, Windows Mobile, iPad et la liste est encore longue…) n’est tout simplement pas une solution viable pour la plupart des entreprise, et ceci empire car…

Les choses changent. Votre entreprise changera.

Imaginez que vous possédez une entreprise et que votre nouvelle application native a été lancée il y a six mois de cela ; votre entreprise et vos clients ont changé ne serait-ce qu’un petit peu et vous devez faire une mise à jour. Bonne chance ! Commencez par trouver l’équipe de développeurs, impliquez à nouveau vos équipes marketing et vente, et apprêtez-vous à tous les payer encore une fois. Ensuite re-soumettez l’application à (aux) app store(s) concernés… et attendez.

Les applis web permettent une mise à jour rapide, au rythme de votre entreprise. Comme pour un site web, les modifications peuvent être mises en œuvre instantanément. Aucune autre solution pour mobile ne peut rivaliser lorsqu’il s’agit de permettre à une entreprise d’être réactive aux priorités et aux besoins en temps réel.

Localisation, localisation, localisation

La proximité est l’un des meilleurs moyens de susciter l’intérêt, d’être pertinent et finalement de déclencher l’acte d’achat. Les applis web ont la possibilité de fournir des services géolocalisés, comme d’informer les utilisateurs de la proximité de lieux pouvant les intéresser ou de leur permettre d’associer des contenus (par exemple des photos ou des notes) à des lieux particuliers.

Votre marque est sur le Web et sociale, pourquoi pas votre appli aussi ?

Qu’est-ce qu’un site web en fait ? C’est l’endroit où votre entreprise/marque/personne existe en ligne. Sauf que ce n’est plus uniquement cela avec le Web moderne. Les marques, les gens, les produits existent à travers l’ensemble du web – sur Twitter, Facebook, Yelp, Tumblr et des centaines (si ce n’est des milliers) d’autres services. Aujourd’hui c’est là que les connexions se font, que l’on trouve les produits et les gens, que les nouvelles idées grandissent.

Les applis web sont faites pour fonctionner et vivre avec les autres éléments de votre marque sur le Web — ce qui vous permet de rester en contact avec vos clients actuels, d’en trouver de nouveaux, ou simplement de partager des idées de toutes les manières possibles. Les applis web excellent, et pour cause, à fonctionner avec d’autres applications du Web.

Et ce n’est que le début, les gars ; attendez de voir la suite !

Crédit photo : Toni Hermoso Pulido (Creative Commons By-Sa)

Notes

[1] En effet, une fois votre belle collection d’applications payantes constituée sur votre smartphone, pourquoi iriez-vous acheter le système concurrent — et ainsi perdre votre logithèque — lorsque vous devrez remplacer votre appareil ? De fait, votre premier système d’exploitation pour mobile risque bien d’être le dernier ! Heureusement Mozilla a différents projets dans ses cartons pour éviter ces écueils, comme Mozilla Marketplace, Firefox OS et Open Web Device.