Un nouveau logiciel vend du nouveau matériel, mais pas pour toujours

Commenter Il y a quelques mois, j’ai écrit que l’achat d’un logiciel est un gros mensonge. Tous les mensonges ont des conséquences, bien sûr. Les pires conséquences sont celles que vous n’avez pas vues venir. Examinons donc certains d’entre eux, et quelques autres mensonges qu’ils dissimulent.

Comme nous l’avons dit la dernière fois, vous ne pouvez pas vraiment acheter de logiciel. Les logiciels commerciaux sont principalement, mais comme certains lecteurs l’ont souligné, pas toujours propriétaire. Les logiciels propriétaires ont à la fois des avantages et des inconvénients, mais les FOSS aussi. Ce n’est pas toujours une question d’argent. La dernière fois, nous avons fait valoir que commodité minimiser les dépenses de travail, de temps et d’efforts peut être encore plus important que le simple coût financier.

Cependant, les différences entre les logiciels commerciaux et les FOSS ont également de nombreuses conséquences importantes en ce qui concerne le matériel. Avec les logiciels commerciaux, les relations sont généralement faciles à suivre. Avec le FOSS, c’est plus compliqué, avec des effets contradictoires et conflictuels. C’est ce que je veux examiner cette fois.

mensonge

Vous pensiez que vous avez acheté un logiciel tout ce que vous avez acheté était un mensonge

LIRE LA SUITE

Le logiciel vend du matériel, alors utilisez du matériel pour vendre du logiciel

Les éditeurs de logiciels, qu’il s’agisse de FOSS ou de logiciels propriétaires, ne travaillent pas isolément. Quiconque vend des systèmes d’exploitation, en particulier, devoir travailler en étroite collaboration avec les fournisseurs de matériel.

À certains égards importants, les objectifs de ces deux camps sont alignés. Les deux ont besoin que vous payiez pour leurs produits, mais plus important encore, ils doivent trouver des moyens de vous faire continuer à payer. Pour les fournisseurs de matériel, c’est relativement simple : continuez simplement à rendre le produit plus rapide et plus volumineux. Idéalement, les nouvelles versions devraient consommer moins d’énergie et être plus faciles à gérer.

Pour les éditeurs de logiciels, c’est plus délicat. En règle générale, les nouvelles versions de produits logiciels établis ont tendance à être plus volumineuses, ce qui les rend plus lentes et plus exigeantes en ressources matérielles. Cela signifie que les utilisateurs voudront, ou mieux encore besoin, un matériel plus récent et mieux spécifié pour exécuter le logiciel qu’ils préfèrent. C’est bon pour les fournisseurs de matériel. Cependant, ce n’est pas à sens unique : le nouveau logiciel a des fonctionnalités supplémentaires, pour inciter les utilisateurs à effectuer une mise à niveau, et si leur nouvel ordinateur l’exécute plus rapidement, c’est bon pour les éditeurs de logiciels.

Comme nous l’avons souligné la dernière fois, cela pousse les éditeurs de logiciels vers des tactiques telles que les licences, les clés, l’activation des produits, les contrats de support, etc. Le verrouillage du format de fichier n’est en aucun cas limité aux fournisseurs propriétaires : vous pouvez également décrire .DEB format versus .RPM format, ou Ansible contre Salt, à peu près dans les mêmes termes. Vous en choisissez un, et après avoir investi dedans, changer pour un autre signifie des coûts : en effort, en valeur monétaire, en temps d’arrêt, etc.

Lorsque vous associez la nécessité de vendre des logiciels plus récents à la nécessité de vendre des ordinateurs plus récents, vous obtenez des éléments tels que le regroupement de logiciels OEM et l’étiquetage de compatibilité des produits. Les fournisseurs de logiciels et de matériel s’incitent mutuellement à promouvoir et à prendre en charge les produits des autres, et les deux y gagnent.

Le résultat est une boucle de rétroaction. Comme l’a décrit l’ancien CTO de Microsoft, Nathan Myhrvold :

Le logiciel est un gaz.

Quel que soit le récipient dans lequel vous le mettez, il se dilate pour le remplir. Cela peut sembler aussi inévitable que la physique, et c’est peut-être pour cela que les gens le décrivent souvent en termes de « lois ». Un exemple est « Andy and Bill’s Law »:

Ce qu’Andy donne, Bill le reprend.

La loi de Wirth est encore plus dure :

Le logiciel devient plus lent plus rapidement que le matériel ne devient plus rapide.

Il y a aussi des lois à ce sujet. Les ordinateurs ne reçoivent plus donc beaucoup plus vite chaque année ou deux. La loi de Moore perd de son élan depuis plus d’une décennie, supplantée par la loi de Koomey. Les ordinateurs sont de plus en plus petits, moins chers, plus froids et durent plus longtemps sur batterie. C’est bon. Cela a conduit à l’essor des téléphones et des tablettes bon marché, ce qui aide davantage de personnes à se connecter. C’est bien aussi.

Deuxièmement, lorsque de grands progiciels complexes arrivent à maturité, les fournisseurs commencent à manquer de nouvelles fonctionnalités pour générer des versions à grand déploiement. Une alternative est les abonnements aux logiciels. Payez des frais et obtenez continuellement un filet de nouvelles fonctionnalités, ainsi qu’une certification que vous êtes à jour et donc un peu plus sécurisé. Vous ne trouvez pas assez de puces pour justifier une nouvelle version en boîte à 250 $ ? C’est très bien : il suffit de demander 25 $ par an et d’obtenir quelques nouvelles fonctionnalités, mais la tranquillité d’esprit.

Il est donc de plus en plus tentant de continuer à utiliser votre ancien logiciel sur votre ancien ordinateur aussi longtemps que possible. Vous avez payé pour les deux, ils sont à vous, donc si un nouveau ne sera pas massivement plus rapide, restez avec ce que vous avez.

Cela a conduit à des ramifications remarquables. Adobe a récemment proposé une magnifique nouvelle ride à ce sujet : un programme d’abonnement qu’il appelle Pantone Connect. En 2021, il a supprimé les bibliothèques de couleurs Pantone de ses produits Creative Cloud. Depuis août, si vous n’avez pas l’abonnement de 15 $ par mois, toutes les couleurs Pantone de vos anciens fichiers deviennent noires.

De tels systèmes basés sur un abonnement peuvent fournir une forte motivation pour franchir le cap du réapprentissage et passer au FOSS. Ensuite, vous descendez de l’échelle de mise à niveau et continuez à utiliser ce PC ancien mais toujours assez bon jusqu’à ce qu’il tombe en panne, puis remplacez-le par quelque chose de similaire bas de gamme et bon marché.

Logiciels gratuits et matériel bon marché : qu’est-ce que c’est ? ne pas aimer?

Le développement continu du matériel et des logiciels impose cependant plusieurs pressions. Le logiciel n’est pas un gaz inerte : comme l’a noté Wirth, sa complexité ne cesse de croître, et à but lucratif ou non, les entreprises et les organisations non commerciales proposant des logiciels libres doivent continuer à fonctionner d’une manière ou d’une autre.

Si vous ne vendez rien, la prise en charge de matériel plus ancien satisfait vos utilisateurs. C’est bon. C’est une motivation pour prendre en charge les kits plus anciens et bas de gamme, ce qui est moins vrai pour les systèmes d’exploitation propriétaires et les applications coûteuses.

Mais vous devez toujours maintenir ces systèmes d’exploitation et applications FOSS à jour : corrigez les bogues, maintenez les défenses contre les nouvelles menaces et les nouveaux exploits. Et en même temps, le matériel ne reste pas immobile. Les ordinateurs sont des machines, celles qui évoluent encore. Toutes les machines finissent par s’user et les ordinateurs de remplacement seront différents : plus récents, plus performants. Cela signifie de nouveaux composants et de nouveaux pilotes, voire de tout nouveaux types de sous-systèmes.

Bien sûr, certains freeloaders utilisent simplement ce genre de choses et ne contribuent rien en retour. Beaucoup pourraient même ne pas se rendre compte qu’ils le font. Le macOS d’Apple est construit sur une base open source. Android aussi, et ChromeOS. Il n’y a rien de mal à cela.

Mais les personnes qui financent le développement paient pour RHEL ou SLE. De toute évidence, ils ne gèrent pas leurs entreprises avec de vieux kits bas de gamme. Ils utilisent des serveurs haut de gamme dans des centres de données. Certaines des entreprises qui gèrent ces centres de données sponsorisent également le développement.

Une autre faction majeure d’entités finançant le développement des systèmes d’exploitation FOSS sont les fournisseurs de matériel eux-mêmes.

Les intérêts de celles-ci les entreprises mentent en vendant du nouveau matériel et en vendant du support pour que les systèmes d’exploitation fonctionnent dessus.

Si ce n’est pas déjà évident, ce sont des objectifs quelque peu contradictoires. Les personnes qui paient la majeure partie du travail n’en sont pas les consommateurs les plus nombreux, et les désirs des milliards d’utilisateurs finaux sont dans une certaine mesure opposés à ceux des personnes qui paient les développeurs pour y travailler.

Une fois que vous comprenez cela, certaines tendances de l’industrie ont plus de sens. Par exemple, le passage aux processeurs et au traitement 64 bits.

Après tout, les processeurs 32 bits fonctionnaient plutôt bien. Le 80386DX est apparu en 1985, le Pentium D en 2005 et le Core Duo en 2006. Cette période de deux décennies nous a fait passer de Quarterdeck DESQview et OS/2 2.0, permettant aux utilisateurs expérimentés d’effectuer simultanément plusieurs applications DOS côte à côte, pour Windows XP et les premiers Mac Intel.

La version simple de l’histoire est qu’une fois que les PC ont obtenu plus de trois Go et un peu de RAM, vous avez besoin d’un système d’exploitation 64 bits pour y accéder. Mais ce n’est pas vrai. Un système d’exploitation 32 bits est parfaitement capable d’accéder à plus de 4 Go de mémoire, en utilisant des fonctionnalités CPU appelées PAE et AWE. C’est juste qu’il a été désactivé en 32 bits bureau Windows : il n’était activé qu’en 32 bits serveur versions. (Comme toujours, il y avait une solution de contournement, mais rare est l’entreprise qui soutiendrait cela.)

Aujourd’hui, c’est sans intérêt. Le PC a commencé à passer au 64 bits en 2000. Windows Server a abandonné la prise en charge du matériel x86-32 lorsque Windows Server 2008 R2 est sorti en 2009, et lorsque Windows 11 est apparu fin 2021, il n’y avait pas d’édition 32 bits.

Le vrai problème est que les serveurs des grandes entreprises avaient besoin de beaucoup de mémoire, et il est arrivé un moment où la prise en charge du kit 32 bits n’a plus aidé l’adoption ou les ventes. Les fournisseurs Linux ont discuté de l’abandon des versions 32 bits en 2016, et cela a commencé à se produire quelques années plus tard. Ubuntu a abandonné la prise en charge 32 bits en 2019, bien qu’il ait conservé la prise en charge des applications 32 bits. Même ChromeOS Flex nécessite un processeur x86-64. Aujourd’hui, seules les distributions non commerciales telles que Debian le supportent encore. Même openSUSE Tumbleweed abandonne sa version x86-32.

Microsoft gagne de l’argent en vendant des systèmes d’exploitation et des mises à niveau, c’est pourquoi il a longtemps travaillé très dur pour que les nouvelles versions du système d’exploitation restent compatibles avec les anciennes applications. Apple, à l’inverse, offre gratuitement des mises à jour du système d’exploitation depuis MacOS 10.9, de sorte qu’il abandonne facilement le matériel plus ancien. Les versions depuis macOS 10.15 ne prennent plus en charge les applications 32 bits et macOS 13 ne prendra pas en charge les Mac antérieurs à 2017. Étant donné que la version 13 n’est pas encore sortie, il est trop tôt pour spéculer sur macOS 14, mais à un moment donné, Apple cessera sûrement de vendre des machines x86 et de les prendre en charge dans son système d’exploitation.

De même, si les clients sont satisfaits de leur ancienne machine et de leur ancien système d’exploitation, les entreprises qui dépendent des revenus des ventes de nouveaux logiciels doivent trouver des moyens de les persuader de mettre à niveau. Microsoft a eu des schémas « conçus pour Windows $ VERSION » pendant des décennies, bien avant « Windows XP-ready ». Le clavier du PC n’avait même pas de clé Windows jusqu’à ce que la campagne pour Windows 95 en fasse un argument de vente.

Ainsi, aujourd’hui, dans le monde des systèmes d’exploitation propriétaires, Windows 11 a besoin d’une puce TPM version 2.0. Si les propositions de l’agent P sont adoptées, de nombreuses distributions Linux le seront aussi. La distribution d’entreprise de nouvelle génération de SUSE, connue sous le nom d’ALP, a besoin de x86-64 version 2, bien que openSUSE Tumblweed ne le fasse pas pour l’instant.

À un moment donné, après que la ligne de base augmente inévitablement pour les distributions d’entreprise payantes, les distributions non commerciales Ubuntu, Fedora, openSUSE et les 270+ autres sera suivre.

Comme le montrent le Raspberry Pi Desktop et Alpine Linux, un PC Core 2 Duo est encore un ordinateur tout à fait capable aujourd’hui. Un haut de gamme avec un GPU dédié peut même exécuter un bureau composé en 3D tel que Cinnamon, grâce à LMDE.

Mais bientôt, ils ne le feront plus. Malheureusement, inévitablement, ce type de support et de technologie va disparaître même des distributions Linux grand public gratuites, tout comme il a disparu des systèmes d’exploitation et des applications commerciaux. L’outillage et les sous-composants proviennent de sources en amont qui tirent leurs revenus de la prise en charge d’un kit plus récent. Finalement, l’écart devient trop large, et les mêmes noyaux et les mêmes compilateurs ne peuvent pas prendre en charge à la fois le kit 32 bits des années 1990 et la génération actuelle. Pendant un certain temps, des choses comme NetBSD viendront à la rescousse, mais cela ne pourra pas durer éternellement.

Les logiciels commerciaux vendent du nouveau matériel, et le nouveau matériel vend du nouveau logiciel, dans une relation relativement simple qui a propulsé des entreprises très rentables. Les logiciels libres, en revanche, tendent à devenir tiré ainsi que de nouveaux développements matériels. À leur tour, les nouvelles générations de logiciels libres entraînent avec elles des systèmes d’exploitation et des applications non commerciaux. Le comportement d’un tel système est au mieux compliqué, c’est pourquoi les câbles de remorquage élastiques portent de gros avertissements.

Vidéo Youtube

Note de démarrage

La loi de Wirth provient d’un article de 1995 dans la revue Computer de l’IEEE, intitulé Un plaidoyer pour les logiciels Lean. Vous pouvez le lire en ligne en PDF. Votre journaliste a également partagé une version texte.

Wirth lui-même attribue l’observation à feu Martin Reiser dans son livre Le système Oberon : guide de l’utilisateur et manuel du programmeur (1991, PDF):

un observateur critique peut observer que le logiciel parvient à dépasser le matériel en taille et en lenteur.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite