Réduire l’empreinte environnementale de l’informatique nécessite des algorithmes efficaces
Écoutez les DSI, les CTO et d’autres cadres supérieurs et cadres supérieurs sur les stratégies de données et d’IA lors du Sommet sur l’avenir du travail du 12 janvier 2022. Apprendre encore plus
Cet article a été rédigé par Neil Thompson, chercheur au laboratoire d’informatique et d’intelligence artificielle du MIT et à l’Initiative sur l’économie numérique.
À mesure que les applications informatiques deviennent plus complexes et que les ensembles de données augmentent, l’impact environnemental de l’informatique s’intensifie. Historiquement, ce n’était pas vraiment un problème car les besoins de calcul croissants étaient compensés par des améliorations de l’efficacité du matériel, familièrement appelée loi de Moores. Mais à mesure que les améliorations matérielles diminuent, une autre source d’efficacité (souvent invisible) occupe le devant de la scène : l’amélioration des algorithmes.
Notre appétit croissant pour l’informatique se reflète dans la prolifération des centres de données qui peuvent s’étendre sur des millions de pieds carrés et qui consomment de grandes quantités d’électricité. L’Agence internationale de l’énergie estime que les centres de données représentent 1% de la consommation énergétique mondiale et 0,3% de toutes les émissions mondiales de CO2. -monde chargé.
Dans une étude récente, Yash Sherry (un chercheur affilié au MIT Sloan) et moi avons examiné la rapidité avec laquelle les algorithmes s’amélioraient et comparé cela à ce qui était historiquement le contrepoids le plus important à l’appétit croissant pour le calcul, la loi de Moores. Poussée par la miniaturisation des éléments constitutifs du matériel informatique, la loi de Moores a apporté de nombreuses décennies de vastes améliorations d’une année à l’autre de l’efficacité informatique. Tout comme l’augmentation de la productivité agricole a alimenté la croissance de la population mondiale, l’augmentation de la productivité du matériel a alimenté la croissance des calculs mondiaux.
Mais si Moores Law est le frère tape-à-l’œil qui fait toujours l’actualité, l’amélioration des algorithmes est le frère qui travaille dans les coulisses.
Les algorithmes sont les recettes qui indiquent aux ordinateurs quoi faire et dans quel ordre. Et tandis que la loi de Moores nous a fourni des ordinateurs capables d’effectuer beaucoup plus d’opérations par seconde, l’amélioration des algorithmes a fourni de meilleures recettes pour savoir quoi faire de plus avec chacune de ces opérations et les avantages peuvent être énormes. Par exemple, imaginez que vous êtes Google Maps et que vous devez trouver le chemin le plus court entre 1 000 lieux populaires vers lesquels les gens se rendent. Calculer cela en utilisant un ancien algorithme pourrait facilement prendre un million de fois plus de calculs que d’utiliser une version plus moderne. Un autre exemple que nous avons documenté est la correspondance de texte, par exemple lorsque les moteurs de recherche recherchent des mots-clés dans des pages Web ou que les avocats recherchent des références particulières dans des documents juridiques. De meilleurs algorithmes peuvent facilement rendre une telle recherche 100 fois plus rapide qu’elle ne l’était à l’origine, réduisant ainsi le temps de calcul et la consommation d’énergie.
Mais si les exemples individuels peuvent être impressionnants, nous voulions une vue plus large. Pour cette étude, nous avons examiné 57 manuels et plus d’un millier d’articles de recherche pour trouver les algorithmes que les informaticiens pensent être les plus importants. De ceux-ci, nous avons extrait 113 familles d’algorithmes différentes (ensembles d’algorithmes qui résolvent le même problème de différentes manières) qui avaient été soulignées comme les plus importantes par les manuels d’informatique. Pour chacun des 113, nous avons suivi chaque fois qu’un nouvel algorithme était proposé pour ce problème des années 1940 à aujourd’hui.
Alors, comment l’amélioration de l’algorithme se compare-t-elle aux améliorations du matériel ? Pour les problèmes de Big Data, 43% des familles d’algorithmes ont eu des améliorations d’une année sur l’autre qui étaient égales ou supérieures aux gains de la loi de Moores. Parmi ceux-ci, 14 % ont connu des améliorations quiont dépassé ceux qui sont venus d’un meilleur matériel. Ces améliorations ont complètement transformé ce qui était faisable dans ces domaines, permettant de résoudre les problèmes d’une manière qu’aucune amélioration matérielle ne peut faire. Aussi important pour notre ère actuelle d’escalade de la taille des données, les gains de l’amélioration des algorithmes sont d’autant plus importants que le problème à résoudre est important.
Les entreprises et les laboratoires de recherche à la pointe de l’informatique répondent déjà au besoin d’investir dans de meilleurs algorithmes. L’organisation médiane consacre 6 à 10 % de ses développeurs informatiques à la création de nouveaux algorithmes et 11 à 20 % à l’amélioration des algorithmes existants, ce qui représente des investissements très importants. D’autres organisations, habituées à acheter simplement du nouveau matériel pour améliorer l’informatique, devront de plus en plus suivre l’exemple de ces porte-drapeaux d’algorithmes pour rester compétitives.
L’importance croissante des algorithmes fait partie d’un changement plus important concernant les moteurs des progrès de l’informatique. Historiquement, l’amélioration était centrée sur le matériel, mais avec la fin de la loi de Moores, cela change. Au lieu de cela, l’amélioration des algorithmes passera de plus en plus au premier plan, fournissant le moteur pour s’attaquer à de nouveaux problèmes informatiques plus difficiles.
Mais repousser les frontières de l’informatique n’est qu’un des avantages de meilleurs algorithmes, l’autre est l’efficacité. Pour les membres du gouvernement ou du monde universitaire, ou simplement pour ceux qui sont préoccupés par la durabilité de l’informatique, de meilleurs algorithmes sont une option idéale : nous permettant d’obtenir les mêmes résultats mais à des coûts environnementaux considérablement réduits.
Neil Thompson est chercheur au MITsComputer Science and Artificial Intelligence Laband theInitiative on the Digital Economy. Auparavant, il était professeur assistant en innovation et stratégie à la MIT Sloan School of Management où il co-dirigait le Experimental Innovation Lab. Thompson a conseillé les entreprises et le gouvernement sur l’avenir de la loi Moores et a fait partie des panels des National Academies sur les technologies transformationnelles et la fiabilité scientifique.
Décideurs de données
Bienvenue dans la communauté VentureBeat !
DataDecisionMakers est l’endroit où les experts, y compris les techniciens travaillant sur les données, peuvent partager des idées et des innovations liées aux données.
Si vous souhaitez en savoir plus sur les idées de pointe et les informations à jour, les meilleures pratiques et l’avenir des données et de la technologie des données, rejoignez-nous à DataDecisionMakers.
Vous pourriez même envisager de publier votre propre article !
Lire la suite de DataDecisionMakers