Temps de lecture 10 min
On le savait déjà mais un présumé développeur Microsoft vient le confirmer avec précision : GNU/Linux est plus rapide que Windows.
Et les raisons qu’il avance font que cela semble difficilement réversible…
Remarque : Le développeur reste anonyme donc le doute subsiste, sur son identité pas sur la lenteur de Windows ;)
Un developpeur Microsoft admet que Linux est plus rapide que Windows
Anonymous MSFT developer admits Linux is faster than Windows
Steven J. Vaughan-Nichols – 12 mai 2013 – ZDNet
(Traduction : alct, goofy, Le_Hobbit, Kurze, Sylvain, Axl, tcit, ProgVal, Jose, Eijebong, Sinma, lmorel3, nano-plink, JLoDoesIT, Cyrille L., MFolschette + anonymes)
Résumé : Ce n’est pas une grande surprise, mais Linux est plus rapide que Windows, et au moins un développeur anonyme de Microsoft est d’accord pour l’admettre et il explique pourquoi c’est le cas.
Linux est bien plus rapide que Windows. Cette constatation n’est pas neuve. C’est pourquoi Linux fait tourner 90 pourcents des 500 plus rapides super-calculateurs, alors que Windows ne fait tourner qu’un pourcent d’entre eux. La nouvelle « nouvelle » est qu’un présumé développeur du système d’exploitation de Microsoft a récemment admis que Linux est en effet plus rapide, et explique pourquoi c’est le cas.
Cette personne anonyme, supposée être un programmeur du noyau de Windows a d’abord publié ses commentaires dans une conversation sur « Hacker News ». Il a poursuivi avec plusieurs commentaires sur le blog de Marc Bevand. Marc Bevand est un ingénieur logiciel pour Adconion, spécialisé dans les calculs à haute performance.
Le présumé développeur déclare en introduction : « Windows est en effet plus lent que les autres systèmes d’exploitation dans beaucoup de situations, et cela ne va pas en s’améliorant. La cause de ce problème est sociale. Aucune amélioration n’est apportée au système pour elle même, pour sa « gloire » telle que celles que vous voyez dans l’univers de Linux. »
Ce n’est pas que les développeurs Windows ne veulent pas améliorer les performances de leur système d’exploitation ; le problème est que la culture de développement de logiciel chez Microsoft décourage les améliorations. Le prétendu programmeur écrit :
« Certes, on voit parfois des personnes naïves tenter d’améliorer les choses. Elles échouent presque systématiquement. Nous pouvons — et nous le faisons — améliorer les performances de certaines fonctionnalités spécifiques lorsque les personnes chargées d’allouer les ressources considèrent que cela aura une influence sur les objectifs commerciaux, mais c’est un travail vain. Il n’y a aucun plan global officiel ou officieux pour l’amélioration des performances du système. Nous avons commencé à nous soucier des problématiques liées à la sécurité parce que Windows XP, avant la sortie du Service Pack 3, devenait une menace vitale pour les affaires. Nos mauvaises perfomances, quant à elles, ne menacent pas les affaires.
Voyez-vous, les producteurs de composants sont généralement ouvertement hostiles aux modifications par des tiers. Si vous êtes un développeur, accepter un patch de l’extérieur met votre chef en colère (parce qu’il faut maintenir ce patch et justifier auprès des collaborateurs le changement de conception non prévu), les testeurs en colère (car les testeurs ont pour responsabilité d’assurer que le changement ne brise rien et vous leur avez créé du travail) et le gestionnaire de projet est en colère (à cause des conséquences en termes de planification du bout de code). Il n’y a en fait rien qui encourage à accepter les changements venus de l’extérieur de votre propre équipe. Vous pouvez toujours trouver une raison de dire « non » et très peu d’intérêt à dire « oui ».
Il y a aussi peu d’incitation au changement tout court. Dans le noyau Linux, si vous améliorez la performance du parcours d’un répertoire de 5 %, vous êtes félicité et remercié. Ici, si vous le faites et que vous n’êtes pas dans l’équipe qui s’occupe de ce sujet, dès lors même si votre code est approuvé par les tenants du sujet et intégré, votre hiérarchie s’en moque. Oui, faire des améliorations importantes va vous permettre d’être remarqué par les plus expérimentés et pourrait être une aubaine pour votre carrière, mais l’amélioration doit être vraiment énorme pour attirer ce genre d’attention. Les améliorations progressives ne font qu’ennuyer les gens et sont, au mieux, sans impact sur votre carrière. Si vous êtes malchanceux et que vous parlez à votre supérieur de comment vous avez amélioré la performance d’autres composants du système, il va juste vous demander si vous pouvez accélérer votre activité de résolution de bug. »
D’après lui, Microsoft est en train de perdre ses meilleurs talents chez la concurrence. Il écrit : « Une autre raison qui explique l’écart de qualité est que nous avons eu du mal à garder les gens talentueux. Google et les autres grosses compagnies de la région de Seattle continuent à piquer nos meilleurs développeurs, ainsi que nos plus expérimentés et nous embauchons des jeunes tout droit sortis de l’université pour les remplacer. Vous trouvez ainsi des SDE (NdT : Microsoft Software Development Engineer pour Ingénieurs de développement logiciel Microsoft) qui maintiennent des systèmes énormes. Ces développeurs sont bien intentionnés, et sont en général suffisamment intelligents, mais ils ne comprennent pas pourquoi certaines décisions ont été prises, ils n’ont pas une compréhension approfondie des détails complexes de la manière dont leurs systèmes fonctionnent et, plus important, ils ne veulent rien changer qui fonctionne déjà. »
De plus, assure-t-il, les développeurs juniors de Microsoft ont une tendance à apporter des améliorations au système en implémentant des fonctionnalités flambant neuves plutôt que d’améliorer les anciennes. Si l’on observe les dernières sorties de Microsoft, le constat est sans appel : nous n’améliorons pas les anciennes fonctionnalités, nous en ajoutons de nouvelles. En l’état actuel des choses, à l’heure du bilan, le développement de nouvelles fonctionnalités est mieux considéré que l’amélioration des anciennes (c’est littéralement l’explication de Powershell. Beaucoup d’entre nous souhaitaient améliorer cmd.exe mais ne pouvaient pas).
Juste pour le plaisir de baver, il est difficile de battre ses pensées concernant le système de fichiers NT (NTFS) : « Oh mon dieu, le code NTFS est un livre d’horreur victorien réécrit sous opium violacé qui utilise des verrous récursifs et SEH (gestion structurée des exceptions) pour le contrôle des flux. Ecrivons plutôt ReFs (système de dossiers résistant à la place (et, ouais, copions et collons le code source de NTFS et enlevons la moitié de ses fonctionnalités ! Et ajoutons des sommes de contrôle, parce c’est cool, n’est-ce pas, et maintenant avec ça c’est tout aussi bien que dans ZFS (Z File System) ? D’accord ? Et qui a besoin de quotas de toute façon ?) »
Ces « révélations » n’ont rien de nouveau. N’importe qui ayant suivi « Mini-Microsoft », un employé anonyme de l’entreprise proposant une vue de l’intérieur des open spaces à gogo du pôle du développement Microsoft, ou qui a lu les commentaires d’un ex-développeur Microsoft mécontent comme Hamilton Verissmo, sait comment la bureaucratie du développement chez Microsoft se met en travers de l’innovation. Comme Brian Cody, un ancien ingénieur Microsoft, disait dans le Magazine Forbes en 2012, être un développeur logiciel Microsoft qui réussit « a toujours été beaucoup moins sur comment je pourrais devenir un meilleur ingénieur et beaucoup plus sur comment améliorer ma visibilité auprès des managers ».
En résumé, Microsoft est devenu une « vieille » entreprise. Ce n’est pas une surprise qu’aujourd’hui, Microsoft tente de se rattraper au niveau des tablettes et smartphones avec des ratés tels que Windows 8 Metro plutôt que l’amélioration de ses performances logicielles de base.
Les personnes réagissent comme si ce nouveau regard sur le fonctionnement de Microsoft était choquant. Ça ne l’est pas. Le développeur le dit lui-même, dès que l’histoire s’est répandue sur la blogosphère, « c’était devenu hors de contrôle. J’ai été trop sévère, et je ne voulais pas que cela ressemble à une sorte d’exposé géant. C’était juste du ronchonnement ».
En particulier, il s’excuse à moitié pour ses commentaires sur NTFS : « NTFS utilise bien SEH en interne, mais le système de fichiers est très robuste et bien testé. Les gens qui le maintiennent comptent parmi les plus talentueux et expérimentés que je connaisse. (Certes, je pense qu’ils maintiennent du code laid, mais le code laid peut faire des composants bons et fiables, de plus la laideur est nécessairement subjective.) »
Dans une tentative de résumer toutes ses plaintes de manière plus positive, il a ajouté, « Windows et Microsoft ont toujours beaucoup de talents techniques. Nous ne livrons pas de code que personne ne peut maintenir et comprendre, même si quelques fois ça peut prendre un peu de temps pour les nouvelles personnes pour contribuer. Bien que j’ai des droits de lecture et d’écriture sur le code source de Windows ainsi que des dizaines de milliers de personnes à travers le monde, je ne suis pas une exception. On ne prend quasiment aucune décision individuelle, et bien que je maintienne que la dynamique sociale décourage la prise de risque et l’action individuelle, je veux insister sur le fait que nous ne sommes ni fous ni anormaux. La force sociale telle que je l’ai décrite promeut l’innovation, et bien que je pense que l’on devrait pouvoir améliorer les aspects de notre culture que j’ai précisés, nous sommes loin d’être paralysés.
Les effets négatifs sont davantage comme ceux encourrus lors du montage d’un béquet non nécessaire sur une voiture plutôt qu’arracher le bloc moteur. Un fait incontestable, c’est que notre division d’ingénieurs fabrique et distribue des logiciels fiables qui fonctionnent partout dans le monde. Qu’importe ce que vous pensez de la nouvelle interface utilisateur de Windows 8, le système qui se cache en dessous est solide comme le roc, tout comme l’était Windows 7, et je suis fier d’avoir été une petite pièce de tout ce processus. »
Solide comme le roc ? Les patchs mensuels du mardi de Microsoft et la sortie constante de corrections pour des failles zero-day, comme la correction en mai d’IE 8, me laissent perplexe, comme toujours, sur la sécurité et la stabilité de Windows, mais que peut dire d’autre un employé de Microsoft ? Dans tous les cas, lorsqu’on parle de vitesse, c’est Linux, et non Windows, comme il l’a admis lui-même, qui reste le champion évident.
Crédit photo : Thawt Hawthje (Creative Commons By)
H.
Un article pas du tout objectif.
« Solide comme le roc ? Les patchs mensuels du mardi de Microsoft et la sortie constante de corrections pour des failles zero-day, comme la correction en mai d’IE 8, me laissent perplexe, comme toujours, sur la sécurité et la stabilité de Windows, mais que peut dire d’autre un employé de Microsoft ? »
Il existe aussi des failles dans tout un tas de logiciel libre. Ça n’est pas parce que tout le monde peut lire le code source, que des développeurs très expérimentés s’amusent à le lire tout le temps.
Amusez vous à lire le dictionnaire en entier pour chercher des fautes d’orthographes !
De plus, personnellement, j’adore la nouvelle interface de Windows. Il y a des ratés, mais la qualité et la finition ergonomique est à mon sens bien meilleure que Gnome ou Unity en l’état actuel des choses.
A bon entendeur.
L’informatique, ça bouge très vite.
PatrikGC
Microsoft a toujours tenté de mettre en avant une certaine ergonomie plutôt que des performances.
Je dois reconnaître que la plupart de leurs logiciels sont assez simples d’utilisation, même s’ils ont la fâcheuse manie de changer parfois l’interface de fond en comble. Je citerai la transition Office 2003 vers Office 2007, et surtout le look de Windows 8.
Par rapport à Windows, Linux est une bête de course. Mais les utilisateurs bavent plutôt devant la carrosserie que devant le moteur.
Ceci dit, le fonctionnement interne de Microsoft ne m’étonne pas plus que ça. C’est très souvent le lot des grosses entreprises, même si elles ont commencé en tant que startups réactives…
j-c
@ H.
Bon, la réaction est un peu facile, mais
> Il existe aussi des failles dans tout un tas de logiciel libre.
Et c’est pour ça que l’auteur de ce billet n’a pas dit que les logiciels libres sont « solides comme le roc ».
> Ça n’est pas parce que tout le monde peut lire le code source, que des développeurs très expérimentés s’amusent à le lire tout le temps.
Cela me semble contradictoire avec: « Dans le noyau Linux, si vous améliorez la performance du parcours d’un répertoire de 5%, vous êtes félicité et remercié. »
En effet, cela implique qu’il y a des incitants dans le logiciel libre pour passer en revue du code déjà écrit pour tenter de l’améliorer, ce qui fait qu’à cet occasion, le code est revu.
Je pense que c’est une erreur de croire que qlq’un va se dire: « tiens, je vais vérifier s’il n’y a pas de bugs ». Il va plutôt se dire: « tiens, j’ai besoin de tel outil pour mon propre projet, je vais jeter un œil sur ce qui a été fait pour voir comment ils ont traités cette problématique », ou bien « tiens, p-e que cette partie là pourrait être optimisée, je vais y jeter un coup d’œil », …
> De plus, personnellement, j’adore la nouvelle interface de Windows.
Le problème est que Mme Michu, même si elle ne l’aime pas, sera obligée de l’utiliser.
Si on dit « une bonne interface est une interface qui plait et convient à au moins une personne », alors, toutes les interfaces sont bonnes.
Un meilleur critère est: « une bonne interface est une interface qui ne provoque pas de gêne chez ceux pour qui elle ne convient pas » (c-à-d se désinstalle et se remplace très facilement, voire mieux: est absente sur certaines configurations par défaut)
V.
Effectivement, c’est un peu extrémiste.
L’auteur a tendance à généraliser à tout le système d’exploitation, et même aux éventuels logiciels périphériques comme le navigateur web, une comparaison qui portait au départ uniquement sur le noyau et le système de fichiers.
Clochix
Je trouve vraiment dommage d’avoir transformé le très intéressant commentaire du développeur de Microsoft en vulgaire windows bashing. Ça ne sert à rien, les convaincus des deux camps vont se murer un peu plus dans leurs convictions, ce qui ne fera rien avancer.
Le commentaire méritait mieux, car il décrit de l’intérieur le risque de sclérose qui guette tout projet qui grossit et vieillit. C’était l’occasion d’ouvrir un débat sur comment se donner les moyens d’éviter la triste situation que le développeur décrit. Et je ne pense pas que le clivage ici se situe entre code libre et code privateur, bon nombre des critiques pourraient s’appliquer à l’un ou l’autre des gros projets libres développés par des entreprises.
Les gens intéressés par l’intégralité du commentaire et les nuances que le développeur a apportées dans un 2° temps pourront lire l’original : http://blog.zorinaq.com/?e=74
H.
@J-C:
« Cela me semble contradictoire avec: « Dans le noyau Linux, si vous améliorez la performance du parcours d’un répertoire de 5%, vous êtes félicité et remercié. » »
Effectivement, d’un point de vue éthique, c’est beaucoup plus agréable pour le développeur. Seulement, un développeur qui bosse dessus 40h par semaine sera plus apte (j’ai pas dis compétent) à le relire que 30 développeurs qui vont occasionnellement fourrer leur nez dans un bout de code pour un projet.
« Un meilleur critère est: « une bonne interface est une interface qui ne provoque pas de gêne chez ceux pour qui elle ne convient pas » (c-à-d se désinstalle et se remplace très facilement, voire mieux: est absente sur certaines configurations par défaut) »
Je suis totalement en désaccord avec ça. Pour moi une bonne interface permet de très rapidement accomplir les actions principales, et donne un accès secondaire aux tâches rares. Elle doit être également visuellement agréable et plutôt instincitve. Avec Windows 8, je peux rechercher dans n’importe quelle tuile ce que je veux (horaires de ciné, programme tv, recettes de cuisine, replay France Televisions, regarder la TV, etc.) et j’ai mon résultat en moins de 10s (je tape les mots clés sur l’acceuil et hop). Je peux lancer des programmes avec le clavier ou la souris en moins d’1s. Je peux consulter mon actualité hors-ligne, je suis prévenu de mes mails, etc… Bref tout ce que j’ai du bidouiller des heures sur Gnome, Unity ou XFCE pour avoir un résultat seulement « potable ».
L’exemple de Mme. MICHU est ridicule car on ne conduit pas une voiture sans savoir conduire. Si Mme. a l’habitude de conduire des voiturettes et qu’on l’a met au volant d’une F430, elle risque fortement de se planter au bout de quelques virages. Là vous dites que c’est la faute de la voiture.
Si la voiture n’est pas capable de freiner OK, mais là tout est plus ou moins bien fini (au pire, la boite à gant ferme mal).
Je connais de nombreuses personnes qui n’utilisent un PC que très occasionnellement, qui s’y sont habitué étonnamment vite. Tellement, que deux m’ont demandé de leur enlever Ubuntu pour Windows 8.
Tant qu’on y est, demain j’vais acheter une Citroen DS5 et j’vais râler auprès de Citroën car la carrosserie ne me convient pas ! J’aurais très bien pu acheter Renault…
Mme. MICHU n’a qu’à prendre 15 min de son temps pour regarder un tutoriel sur internet.
H.
Ginko
@Clochix,
>Le commentaire méritait mieux, car il décrit de l’intérieur le risque de sclérose qui guette tout projet qui grossit et vieillit.
Je ne pense pas que ce soit lié à l’âge d’un projet (du moins n’est-ce pas le facteur principal). Pour être prestataire intégrateur logiciel, je le constate à chaque projet : il s’agît plus de la culture de la boite (qui évidemment évolue, et qui dans la plupart des cas dérive vers la bureaucratie conservative et/ou commerciale, mais ce n’est pas systématique) que de l’âge du projet. Evidemment la dette technique augmente lorsque le code vieillit, poussant dans cette direction, mais justement, la lutte contre la dette technique est directement liée à la culture de la boite (management technique fort et expérimenté).
>C’était l’occasion d’ouvrir un débat sur comment se donner les moyens d’éviter la triste situation que le développeur décrit. Et je ne pense pas que le clivage ici se situe entre code libre et code privateur, bon nombre des critiques pourraient s’appliquer à l’un ou l’autre des gros projets libres développés par des entreprises.
Effectivement, cela va dans le même sens que ma réponse précédente : il s’agît plus de « **culture** de projet » que de **nature** du projet. Un projet open source peut accumuler de la dette technique en veux-tu ? en voila ! (OpenOffice.org ?). Inversement, il peut exister des projet privateurs qui luttent contre la dette technique (je n’en ai pas encore croisé… mais je veux croire en l’humain : ça doit exister !)
Si vous connaissez une grosse boite qui pond du code (ouvert ou fermé) en cherchant à limiter la dette technique, je suis preneur !
PS : Un topo rapide du concept de dette technique sur wikipedia : http://fr.wikipedia.org/wiki/Dette_…
Internet notre ennemi
C’est plus rapide mais ça fait moins de choses.
Ou quand ça fait autant de choses, c’est plus lent (Ubuntu).
Bref, Linux pour les desktop c’est archi mort. Partout sur le net on commence à lire des gens qui ont voulu essayer Linux suite au buzz/brouhaha de ces derniers mois à son sujet et qui retourne sous Windows : ils ont besoin de travailler avec leur machine, donc exit Linux.
j-c
@ H:
> Effectivement, d’un point de vue éthique, c’est beaucoup plus agréable pour le développeur.
Ce n’est pas du tout ce dont je parlais. Si c’est ce que vous avez compris, relisez mon commentaire.
> Seulement, un développeur qui bosse dessus 40h par semaine sera plus apte (j’ai pas dis compétent) à le relire que 30 développeurs qui vont occasionnellement fourrer leur nez dans un bout de code pour un projet.
D’où tirez vous cette affirmation ?
Cela contredit mon expérience personnelle. Il est BEAUCOUP plus facile de trouver un bug lorsqu’on essaie de comprendre ce que fait le programme que lorsqu’on l’a écrit et/ou qu’on sait donc déjà ce qu’il est censé faire.
Dans mon travail, j’ai été amené à signaler des bugs, ou à être informé de mes propres bugs. Dans 99% des cas, c’était le résultat de quelqu’un qui voulait comprendre comment le programme fonctionne.
> Pour moi une bonne interface permet de très rapidement accomplir les actions principales, et donne un accès secondaire aux tâches rares.
Les actions principales et les tâches rares dépendent de l’individu qui utilise l’interface. La rapidité en fonction de la méthode aussi. Par exemple, moi, je suis plus rapide lorsque j’ai tout les nombreux programmes couramment utilisés sous les yeux. Mais d’autres personnes sont plus rapides si elles ont des dossiers de catégories, elles n’ont pas à chercher des yeux longtemps l’application qui leur faut.
Donc, non, une interface qui est « plus rapide pour les actions principales » n’existe pas réellement: pour 2 individus différents, l’un peut être plus rapide sur une interface A tandis que l’autre sur une interface B.
(évidemment, il est possible de créer une interface mal conçue qui fait qu’elle est systématiquement moins rapide que d’autres peu importe la personne. Mais à l’heure actuelle, les principales interfaces ont suffisamment évolués pour que ce ne soit pas le cas)
> Elle doit être également visuellement agréable et plutôt instincitve.
Et chaque individu a un goût et un instinct différent.
> Bref tout ce que j’ai du bidouiller des heures sur Gnome, Unity ou XFCE pour avoir un résultat seulement « potable ».
Et donc Windows 8 est parfait pour vous. Et il est p-e parfait pour moi aussi. Reste que ce n’est pas une bonne interface pour qlq’un pour qui Windows 8 n’est pas une bonne interface. Et le fait que cette interface soit imposée fait que cette interface est mal adaptée aux gens, puisqu’elle force certaines personnes (autre que vous et moi) à l’utiliser.
Le point important est que chaque personne est différente. Vous dites: « j’ai tout sous les yeux, donc, ça va plus vite ». C’est vrai pour vous. D’autres personnes iront plus vite en cliquant dans une catégorie.
> L’exemple de Mme. MICHU est ridicule car on ne conduit pas une voiture sans savoir conduire.
Vous n’avez pas du tout compris ce que j’ai dis.
Ce que je dis, c’est que Mme Michu n’a pas le choix. Il existe des Mme Michu individuelles qui trouvent Windows 8 génial. Mais il existe aussi des Mme Michu individuelles pour qui Windows 8 ne conviendra pas (à moins que vous osiez prétendre que tout le monde a les mêmes goûts, la même façon de travailler, le même degré de fatigue mentale, la même capacité à l’abstraction, la même capacité à la représentation géographique, …).
Rien à voir avec la capacité d’utiliser l’interface.
Vous dites aussi: » Si Mme. a l’habitude de conduire des voiturettes et qu’on l’a met au volant d’une F430, elle risque fortement de se planter au bout de quelques virages. Là vous dites que c’est la faute de la voiture. »
Ce que je dis, c’est « c’est la faute à celui qui empêche Mme de conduire autre chose qu’une F430. Et c’est bien ce que fait Windows 8, vu que l’interface n’est pas désinstallable. Donc, oui, c’est la faute de Windows 8 ».
Dender
Le gros avantage de Linux en particulier Ubuntu c’est sa légèreté, sa simplicité le nombre de logiciels disponibles et surtout l’OS est entièrement crypté et sécurisé.
Et le fait qu’il soit libre offre une grande liberté d’action. Aussi il est invulnérable au malware et Virus, et le multitâche est réel. Il faut inciter les plus jeunes à l’utiliser, pour que la prochaine génération y soit habituée.
L’informatique ça bouge vite, le monde de Linux s’agrandit, Android nous l’a prouvé 😉
martin
C’est bien beau tout cela , mais j’avais windows vista sur un vieux toshiba L40 . j’ai donc installé ubutun 14 en système double. et bien montre en main vista sur cette machine est 20% plus rapide que ubutun en exécution des programmes et chose curieuse vista est devenu plus rapide qu’il ne l’était avant l’installation du double système. comment expliquer cela?
Jean-Marc
Plusieurs choses expliquent la légèreté et performances de linux
et, si tu ne les utilises sur ton linux, ceci peut expliquer cela :
Alors, plusieurs points d amélioration :
– le système de fichier : ton linux est sur une partition ext4 ?
– la configuration : tu as choisi une distribution bien adaptée, en particulier, son gestionnaire de bureau léger (LXDE, xfce, au lieu de gnome, KDE ou unity), avec, en prime, un gestionnaire de fenêtre léger ? (fluxbox par ex)
– tu utilises les programmes utilisant les même dépendances ? (logiquement, oui, si c est une installation clef en main)
et -surtout pas- tes programmes en .exe utilisé avec wine (wine PERMET d utiliser certains programmes windows, mais, bien sûr, linux + wine + .exe, outre les éventuels pb de compatibilités, celà rajoute une couche, et entraine une hausse de la conso de ressources, et une perte de performances)
– la personnalisation :
après, il y a diverses astuces, pour améliorer SON linux…
ou tel ou tel programme,
une recherche sur le net te fournira diverses astuces.
Par ex, la plus classique :
Si tu as beaucoup de RAM, mettre tes fichiers temporaires en RAM :
accès largement plus rapide que sur un DD,et même que sur un SSD, ce qui améliore un peu tous les programmes : on retrouve en temporaire, ce qu’on risque d avoir besoin de se servir bientôt.
SON linux :
enlever les programmes dont on est sûr de ne pas avoir besoin dans les 6 mois (on pourra tjrs les ré-installer plus tard) est une petite optimisation pratique de l espace (surtout si on n a pas un DD, mais un petit SSD, une compact-flash ou autre micro-SD pour son OS et ses documents).
autre amélioration classique :
supprimer certains Daemon dont on n a pas besoin…
mais là… il faut faire TRÈS attention, pour ne pas supprimer n’importe quoi.
Cependant, le plus simple, c est de chercher sur le net l amélioration/la personnalisation de son linux, et de lire/appliquer différents conseil, en fonction de ce qu’on faits.
—
tiens.. autre chose…
tu as installé en double :
as-tu la même taille de partition pour les 2 ?
si tu as 2 fois plus de place pour windows que pour Linux, facilitant son swap,
ceci peut aussi expliquer cela
si tu accèdes aux même fichiers, aux même documents, mis sur un repertoire NTFS ou autre FAT32,
c est comme pour wine : tu rajoutes une couche d’incompatibilité, qui ne permet pas d améliorer ton accès au fichier par son système de fichier, avec, entre autre, la NON fragmentation, quand tu utilises un système de fichier propre à linux,
donc tu ne bénéficies pas de l amélioration par linux, mais au contraire, tu lui compliques la tache :
gèrer NTFS est POSSIBLE pour linux, mais il le gère moins bien que de l’ext4 ou du Reiserfs :
Si tu rajoutes plein d enclumes à ton linux, du partitionement plus petit, au mauvais formatage/mauvais système de fichier, en passant par l utilisation de programme .exe par wine, il est normal qu’il soit plus lent que windows.
« vieux toshiba » :
si c est vraiment un vieux truc, un Ubuntu Remix Edition, un système fait pour les netbooks ou petites configs portables, serait peut-etre mieux adapté que l ubuntu des postes de travail.
(si ton 20% est seulement sur le démarrage…
ben, c est pas grave…
tu peux enregistrer ta config de session, pour l optimiser : pour que linux ne cherche plus (en particulier, ne recherche plus quel est ton matériel, et les drivers pour ce matos) , mais ré-ouvre comme c était avant, recherche « démarrage rapide sous linux » ou « démarrage optimisé sous linux » pour le faire)
Jean-Marc
« vista est devenu plus rapide qu’il ne l’était avant l’installation du double système »
je ne sais pas ce que tu as fait,
mais, prend des fichiers (OS, programmmes, et documents) sur un ordi windows tournant depuis logtemps :
celà fragmente de partout, plombant de plus en plus les performances d’un ordi sous windows (obsolescence programmée et obligatoire, des produits sous windows?)
et, la défrag ne remédie QU EN PARTIE au problème :
mieux qu’une défrag :
recopie, depuis Linux, tous tes fichiers de NTFS sur ext4 (ou autre système de fichiers non fragmenté)
formate ta partition NTFS, qui devient donc toute neuve,
redéplace tes fichiers windows sur NTFS, avec 2 partitions, une pour le système, et une pour les données.
Sans doute, pour installer linux, y a-t-il eu un reformatage, avec déplacements de fichiers fragmentés…
équivalent à une défragmentation partielle, donc ce moindre fragmentage explique sans doute cette petite amélioration.
Et il te permet de voir ce que pourrait être CONSTAMMENT ton matos (car là, ton win va re-fragmenter, progressivement, au fur et à mesure que tu t en sers..), avec un système de fichier ne fragmentant pas
martin
merci pour tes conseils avisés jean_marc. je vais essayer de les mettre en application, puis je ferai un retour sur les résultats obtenus.
Jean-Marc
Sinon, il existe une méthode d amélioration de windows un peu compliquée, et pas garantie :
les hyperviseurs, comme Xen (http://fr.wikipedia.org/wiki/Xen )
Là, windows sera en surcouche, et lui, ses programmes et ses documents tourneront sur un système de fichier ne fragmentant pas.
Autre hyperviseur : KVM, avec des pilotes virtio :
http://fr.wikipedia.org/wiki/Kernel…
je cite ;
« Dans les versions récentes de kvm (au minimum la version 60) il est possible d’utiliser un mécanisme similaire à la paravirtualisation en utilisant virtio. Les pilotes virtio sont inclus dans le noyau Linux de version 2.6.25 au minimum. Il existe aussi des pilotes virtio pour Windows. Ce mécanisme permet une vitesse d’exécution accrue car il n’est plus nécessaire d’émuler des périphériques matériels. Cependant, ce système sort du cadre de la virtualisation au sens strict car il faut que les pilotes soient informés qu’ils sont exécutés dans un environnement virtualisé[«
Grâce à cela, les drivers sont sous linux (sous KVM), ce qui évite d’utiliser la virtualisation de leur pilote sous windows => accès plus rapide, plus direct au matériel
En fait, sur le principe, la virtualisation rajoute une couche, donc elle dégrade les performances,
çà, c est le cas général.
Mais, si on part d’un OS lent, avec des défauts,
et si on le fait tourner sous un autre système de fichier, avec d autres pilotes, cela PEUT l’améliorer directement.
(surtout virtio permet de ne pas rajouter cette couche à chaque fois : on utilise les pilotes virtio directement)
Par contre, si l amélioration n est pas garantie à l installation,
sur le long terme, cela VA l améliorer, car il ne fragmentera plus, car il ne se dégradera plus ^^
Précision :
comme je n utilise pas windows, je n ai pas testé sa virtualisation sous Xen ni KVM,
sous Xen, cela marcherait bien, sous KVM, je ne sais pas.
—
sur les pilotes :
Par ex, sous linux, jamais de pilotes à télécharger/installer pour une imprimante.
Mais, au contraire, la possibilité de faire des actions, toujours pas présentes par défaut sous d autres OS (sauf en Pdf… mais il n existe pas que le pdf…), comme « imprimer dans un fichier » (très utile, par exemple pour remanier un document, même si on n avait pas les droits de modification-écriture dessus, et qu’on n est pas dans une session pouvant modifier ces droits, et qu’on n a pas le mdp root (mdp session maître, session installation-désinstallation)).
—
Ce paragraphe sur les hyperviseurs est à titre d’information,
pour te dire que c est possible,
mais je te conseille de te familiariser avec linux, et, dans qq mois (années ^^),
seulement si tu découvres que tu veux pouvoir utiliser les deux,
mais que windows fini tjrs par te poser trop de pbs dans le temps
(selon ton espace disque, et tes installations/desinstalls et utilisations, il fragmentera plus ou moins vite),
alors tu pourras réfléchir à la virtualisation.
En attendant, d’ici là, le dual boot est très très bien.
martin
Bonjour je suis enfin satisfait de mon linux . je rappelle mon problème, j’ai installer ubutun 14 en dual boot avec vista. Je trouvais ubutun plus lent que vista pour le démarrage des programmes. ma configuration :
TOSHIBA L40 satellite ( année 2007)
Processeur Intel® Pentium Core™ Duo T2080 fréquence d’horloge : 1.73 GHz
fréquence du bus (Front Side Bus) : 533 MHz 2nd level cache : 1 Mo
mémoire : 2,048 Mo
Je précise que je suis débutant sur linux et que je ne suis presque nul en bidouillage. il me fallait donc des outils prêts à l’emploi.
j’ai donc installé Preload (qui charge les programmes qui ont le plus de probabilité d’être utilisés dans la ram) + Zram (qui compresse la mémoire vive et donc limite l’utilisation du swap).
Je suis assez content du résultat mon ordinnateur n’a jamais été aussi rapide même quand il était tout neuf sous Vista. j’espère que les résultats seront constants dans le temps.
Au fait merci jean-Marc qui m’a incité à chercher lol.
Jean-Marc
content d avoir été utile 🙂
(donne un poisson / apprend à pécher ;))
2 choses,
1- comme tu dis débuter sous linux,
un lien qui peut te servir :
http://wiki.linux-france.org/wiki/L…
pas forcément le plus beau,
mais de la lecture utile 🙂
(en mode console : tu peux très bien ne jamais te servir de la console… mais, pour certaines tâches, par exemple, pour gérer de nombreux fichiers en une seule opération, c est beaucoup plus simple et rapide, que de refaire l opé en mode graphique document après document; exemple type : en une commande (un peu longue) rajouter le logo du site, sur toutes les photos du répertoire « photos nouvelles » avant de les déplacer dans le répertoire « photos taguees »)
2- quelques liens en vrac, permettant d accélérer le démarrage
http://www.commentcamarche.net/faq/…
(où on trouve le plus utile, Preload, mais aussi des services/daemons arrêtables… ou pas)
http://sinformatiques.blogspot.fr/2…
sélectionner/désélectionner les programmes se lançant au démarrage
http://www.tux-planet.fr/5-astuces-…
[ne faire que les 4 premiers, des doutes sur le 5eme (et le 4 semble anecdotique)]
https://www.debian-fr.org/accelerer…
preload + readahead + kexec
précision : c est des liens trouvés en 5 minutes,
je n ai pas retrouvé de lien expliquant comment mettre les fichiers tempo en ram
(un complément à preload)