La nouvelle façon de trier les objets de DeepMind AI pourrait accélérer l’informatique mondiale

Les algorithmes de tri sont une partie essentielle de l’informatique
MEILLEURS ARRIÈRE-PLAN/Shutterstock
Un algorithme utilisé des milliards de fois par jour dans le monde pourrait fonctionner jusqu’à 70 % plus rapidement, grâce à une intelligence artificielle créée par la société britannique DeepMind. Il a trouvé un moyen amélioré pour les ordinateurs de trier des données qui ont été négligées par les programmeurs humains pendant des décennies.
« Honnêtement, nous ne nous attendions pas à faire mieux : c’est un programme très court, ce type de programmes est étudié depuis des décennies », déclare Daniel Mankowitz chez DeepMind.
Connus sous le nom d’algorithmes de tri, ils sont l’un des chevaux de bataille du calcul, utilisés pour organiser les données en classant les mots par ordre alphabétique ou en classant les nombres du plus petit au plus grand. De nombreux algorithmes de tri différents existent, mais les innovations sont limitées car ils ont été fortement optimisés au fil des décennies.
Maintenant, DeepMind a créé un modèle d’IA appelé AlphaDev qui est conçu pour découvrir de nouveaux algorithmes pour accomplir une tâche donnée, dans l’espoir de battre nos efforts existants. Plutôt que de peaufiner les algorithmes actuels, AlphaDev part de zéro.
Il utilise le code d’assemblage, qui est le langage informatique intermédiaire qui se situe entre le code écrit par l’homme et les séquences d’instructions binaires codées en 0 et 1. Le code d’assemblage peut être minutieusement lu et compris par les humains, mais la plupart des logiciels sont écrits dans un langage de niveau supérieur plus intuitif avant d’être traduits, ou « compilés », en code d’assemblage. DeepMind dit que le code d’assemblage donne à AlphaDev plus de latitude pour créer des algorithmes plus efficaces.
L’IA est invitée à construire un algorithme une instruction à la fois et tester sa sortie par rapport à une solution correcte connue pour s’assurer qu’il crée une méthode efficace. Il est également demandé de créer l’algorithme le plus court possible. DeepMind dit que la tâche devient rapidement plus difficile avec des problèmes plus importants, car le nombre de combinaisons possibles d’instructions peut rapidement approcher le nombre de particules dans l’univers.
Lorsqu’on lui a demandé de créer un algorithme de tri, AlphaDev en a proposé un qui était 70 % plus rapide que le meilleur pour les listes de cinq éléments de données et 1,7 % plus rapide pour les listes de plus de 250 000 éléments.
« Au départ, nous pensions qu’il s’agissait d’une erreur ou qu’il y avait un bogue ou quelque chose du genre, mais, en analysant le programme, nous avons réalisé qu’AlphaDev avait en fait découvert quelque chose plus rapidement », explique Mankowitz.
Étant donné que les algorithmes de tri sont utilisés dans de nombreux logiciels courants, cette amélioration pourrait avoir un effet cumulatif significatif à l’échelle mondiale. De tels algorithmes sont si vitaux qu’ils sont écrits dans des bibliothèques de code que n’importe qui peut utiliser, plutôt que d’écrire les leurs. DeepMind a rendu ses nouveaux algorithmes open source et les a inclus dans la bibliothèque Libc++ couramment utilisée, ce qui signifie que les gens peuvent déjà les utiliser aujourd’hui. Il s’agit du premier changement apporté à cette partie de la bibliothèque d’algorithmes de tri depuis plus d’une décennie, explique DeepMind.
Mankowitz dit que la loi de Moore – l’idée que la quantité de puissance de calcul d’une seule puce double à intervalles réguliers – touche à sa fin parce que la miniaturisation atteint des limites physiques immuables, mais qu’AlphaDev pourrait être en mesure d’aider à compenser cela en améliorant l’efficacité .
« Aujourd’hui, ces algorithmes sont tirés [run in software] nous estimons des billions de fois chaque jour et [are] capable d’être utilisé par des millions de développeurs et d’entreprises du monde entier », déclare Mankowitz. « L’optimisation du code des fonctions fondamentales qui sont sollicitées des milliards de fois par jour aura, espérons-le, suffisamment d’avantages pour encourager les gens à essayer de faire encore plus de ces fonctions et à en faire un moyen de débloquer ce goulot d’étranglement. [of Moore’s law slowing].”
Mark Lee de l’Université de Birmingham, au Royaume-Uni, déclare qu’AlphaDev est intéressant et que même une augmentation de vitesse de 1,7 % est utile. Mais il dit que même si des efficacités similaires sont trouvées dans d’autres algorithmes courants, il est sceptique que cette approche compensera la violation de la loi de Moore, car elle ne pourra pas faire les mêmes gains dans des logiciels plus ésotériques.
« Je pense qu’ils vont pouvoir faire cela pour des choses comme les algorithmes de tri et les algorithmes de calcul standard. Mais cela ne s’appliquera pas à… des morceaux de code complexes », dit-il. « Je pense que les augmentations du matériel vont encore le dépasser. »
Les sujets: