Les systèmes de découverte de médicaments par IA pourraient être réutilisés pour fabriquer des armes chimiques, préviennent les chercheurs

En 2020, Collaborations Pharmaceuticals, une société spécialisée dans la recherche de nouveaux candidats-médicaments pour les maladies rares et transmissibles, a reçu une demande inhabituelle. L’entreprise privée de Raleigh, en Caroline du Nord, a été invitée à faire une présentation lors d’une conférence internationale sur les armes chimiques et biologiques. La conférence a porté sur la façon dont les logiciels d’intelligence artificielle, généralement utilisés pour développer des médicaments pour traiter, par exemple, le syndrome de Pitt-Hopkins ou la maladie de Chagas, pourraient être détournés à des fins plus néfastes.

En répondant à l’invitation, Sean Ekins, directeur général de Collaborations, a commencé à réfléchir avec Fabio Urbina, un scientifique principal de l’entreprise. Il ne leur a pas fallu longtemps pour trouver une idée : et si, au lieu d’utiliser des données de toxicologie animale pour éviter les effets secondaires dangereux d’un médicament, Collaborations mettait son logiciel MegaSyn basé sur l’IA au travail pour générer un recueil de molécules toxiques qui ont été similaire au VX, un agent neurotoxique notoire ?

L’équipe a exécuté MegaSyn du jour au lendemain et a trouvé 40 000 substances, y compris non seulement le VX mais d’autres armes chimiques connues, ainsi que de nombreuses substances potentiellement toxiques complètement nouvelles. Tout ce qu’il fallait, c’était un peu de programmation, des données open source, un ordinateur Mac 2015 et moins de six heures de temps machine. « C’était juste un peu surréaliste », dit Urbina, remarquant à quel point la sortie du logiciel était similaire au processus de développement de médicaments commerciaux de l’entreprise. « Ce n’était pas différent de quelque chose que nous avions fait auparavant – utiliser ces modèles génératifs pour générer de nouveaux médicaments pleins d’espoir. »

Collaborations a présenté le travail à Spiez CONVERGENCE, une conférence en Suisse qui se tient tous les deux ans pour évaluer les nouvelles tendances de la recherche biologique et chimique qui pourraient constituer des menaces pour la sécurité nationale. Urbina, Ekins et leurs collègues ont même publié un commentaire évalué par des pairs sur les recherches de l’entreprise dans la revue Intelligence des machines naturelles– et a ensuite donné un briefing sur les conclusions au Bureau de la politique scientifique et technologique de la Maison Blanche. « Notre sentiment est que [the research] pourrait constituer un tremplin utile pour l’élaboration de politiques dans ce domaine », déclare Filippa Lentzos, codirectrice du Centre d’études scientifiques et de sécurité au King’s College de Londres et co-auteur de l’article.

La ressemblance étrange avec le travail de routine quotidien de l’entreprise était surprenante. Les chercheurs avaient précédemment utilisé MegaSyn pour générer des molécules à potentiel thérapeutique qui ont la même cible moléculaire que VX, explique Urbina. Ces médicaments, appelés inhibiteurs de l’acétylcholinestérase, peuvent aider à traiter des maladies neurodégénératives telles que la maladie d’Alzheimer. Pour leur étude, les chercheurs avaient simplement demandé au logiciel de générer des substances similaires au VX sans entrer la structure exacte de la molécule.

De nombreuses IA de découverte de médicaments, dont MegaSyn, utilisent des réseaux de neurones artificiels. « Fondamentalement, le réseau neuronal nous indique les routes à emprunter pour mener à une destination spécifique, qui est l’activité biologique », explique Alex MacKerell, directeur du Computer-Aided Drug Design Center à l’Université du Maryland School of Pharmacy, qui n’a pas participé à la recherche. Les systèmes d’IA « notent » une molécule en fonction de certains critères, tels que sa capacité à inhiber ou à activer une protéine spécifique. Un score plus élevé indique aux chercheurs que la substance pourrait être plus susceptible d’avoir l’effet souhaité.

Dans son étude, la méthode de notation de la société a révélé que bon nombre des nouvelles molécules générées par MegaSyn On prévoyait qu’ils seraient plus toxiques que le VX, une réalisation qui a mis Urbina et Ekins mal à l’aise. Ils se sont demandé s’ils avaient déjà franchi une frontière éthique même en exécutant le programme et ont décidé de ne rien faire de plus pour affiner les résultats par calcul, et encore moins tester les substances de quelque manière que ce soit.

« Je pense que leur intuition éthique était tout à fait juste », déclare Paul Root Wolpe, bioéthicien et directeur du Centre d’éthique de l’Université Emory, qui n’a pas participé à la recherche. Wolpe écrit et réfléchit fréquemment sur des questions liées aux technologies émergentes telles que l’intelligence artificielle. Une fois que les auteurs ont senti qu’ils pouvaient démontrer qu’il s’agissait d’une menace potentielle, dit-il, « leur obligation était de ne pas pousser plus loin ».

Mais certains experts disent que la recherche n’a pas suffi à répondre à des questions importantes quant à savoir si l’utilisation d’un logiciel d’IA pour trouver des toxines pourrait pratiquement conduire au développement d’une véritable arme biologique.

« Le développement d’armes réelles dans les programmes d’armement passés a montré, à maintes reprises, que ce qui semble théoriquement possible peut ne pas l’être dans la pratique », commente Sonia Ben Ouagrham-Gormley, professeure associée au programme de biodéfense de la Schar School of Policy and Government. à l’Université George Mason, qui n’a pas participé à la recherche.

Malgré ce défi, la facilité avec laquelle une IA peut générer rapidement une grande quantité de substances potentiellement dangereuses pourrait encore accélérer le processus de création d’armes biologiques mortelles, déclare Elana Fertig, directrice associée des sciences quantitatives au Sidney Kimmel Comprehensive Cancer Center à Johns Hopkins. University, qui n’a pas non plus participé à la recherche.

Pour rendre plus difficile l’utilisation abusive de ces technologies par les gens, les auteurs de l’article proposent plusieurs façons de surveiller et de contrôler qui peut utiliser ces technologies et comment elles sont utilisées, y compris des listes d’attente qui obligeraient les utilisateurs à se soumettre à un processus de présélection pour vérifier leurs informations d’identification. avant qu’ils ne puissent accéder à des modèles, des données ou du code qui pourraient être facilement utilisés à mauvais escient.

Ils suggèrent également de présenter au public les IA de découverte de médicaments via une interface de programmation d’application (API), qui est un intermédiaire qui permet à deux logiciels de se parler. Un utilisateur devrait demander spécifiquement des données de molécules à l’API. Dans un e-mail à scientifique américain, Ekins a écrit qu’une API pourrait être structurée pour ne générer que des molécules qui minimiseraient la toxicité potentielle et « exigeraient que les utilisateurs [apply] les outils/modèles d’une manière spécifique. Les utilisateurs qui auraient accès à l’API pourraient également être limités, et une limite pourrait être fixée au nombre de molécules qu’un utilisateur pourrait générer à la fois. Pourtant, Ben Ouagrham-Gormley soutient que sans montrer que la technologie pourrait facilement favoriser le développement d’armes biologiques, une telle réglementation pourrait être prématurée.

Pour leur part, Urbina et Ekins considèrent leur travail comme une première étape pour attirer l’attention sur la question de l’utilisation abusive de cette technologie. « Nous ne voulons pas présenter ces choses comme étant mauvaises, car elles ont en fait beaucoup de valeur », déclare Ekins. «Mais il y a ce côté sombre. Il y a cette mise en garde, et je pense qu’il est important d’en tenir compte.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite