#image_title

Le ministère de la Sécurité intérieure adopte l’IA

Le ministère de la Sécurité intérieure a été témoin des opportunités et des risques de l’intelligence artificielle. Des années plus tard, il a trouvé une victime de la traite à l’aide d’un outil d’IA qui évoquait une image de l’enfant dix ans plus âgé. Mais il a également été trompé dans ses enquêtes grâce à de fausses images créées par l’IA.

Aujourd’hui, le ministère devient la première agence fédérale à adopter cette technologie avec un plan visant à intégrer des modèles d’IA générative dans un large éventail de divisions. En partenariat avec OpenAI, Anthropic et Meta, il lancera des programmes pilotes utilisant des chatbots et d’autres outils pour aider à lutter contre les délits liés au trafic de drogue et au trafic d’êtres humains, à former les agents d’immigration et à préparer la gestion des urgences à travers le pays.

La précipitation pour déployer cette technologie encore non éprouvée fait partie d’une course plus vaste visant à suivre les changements apportés par l’IA générative, qui peut créer des images et des vidéos hyper réalistes et imiter la parole humaine.

On ne peut pas l’ignorer, a déclaré dans une interview Alejandro Mayorkas, secrétaire du Département de la sécurité intérieure. Et si l’on n’est pas avant-gardiste en reconnaissant et en étant prêt à aborder son potentiel de bien et son potentiel de mal, il sera trop tard et c’est pourquoi nous agissons rapidement.

Le projet d’intégrer l’IA générative dans toute l’agence est la dernière démonstration de la façon dont les nouvelles technologies comme ChatGPT d’OpenAI obligent même les industries les plus sérieuses à réévaluer la façon dont elles mènent leur travail. Pourtant, les agences gouvernementales comme le DHS sont susceptibles de faire face à des contrôles parmi les plus sévères sur la manière dont elles utilisent la technologie, ce qui a déclenché un débat rancunier parce qu’elle s’est parfois révélée peu fiable et discriminatoire.

Les membres du gouvernement fédéral se sont précipités pour élaborer des plans à la suite du décret du président Biden publié à la fin de l’année dernière qui exige la création de normes de sécurité pour l’IA et son adoption dans l’ensemble du gouvernement fédéral.

Le DHS, qui emploie 260 000 personnes, a été créé après les attentats terroristes du 11 septembre et est chargé de protéger les Américains à l’intérieur des frontières du pays, notamment en matière de lutte contre le trafic d’êtres humains et de drogue, de protection des infrastructures critiques, de réponse aux catastrophes et de patrouille aux frontières.

Dans le cadre de son plan, l’agence prévoit d’embaucher 50 experts en IA pour travailler sur des solutions visant à protéger les infrastructures critiques du pays contre les attaques générées par l’IA et à lutter contre l’utilisation de la technologie pour générer du matériel d’abus sexuel sur des enfants et créer des armes biologiques.

Dans les programmes pilotes, pour lesquels elle consacrera 5 millions de dollars, l’agence utilisera des modèles d’IA comme ChatGPT pour faciliter les enquêtes sur les matériels pédopornographiques, le trafic d’êtres humains et de drogue. Il travaillera également avec des entreprises pour parcourir ses trésors de données textuelles afin de trouver des modèles susceptibles d’aider les enquêteurs. Par exemple, un détective qui recherche un suspect conduisant une camionnette bleue pourra rechercher pour la première fois dans le cadre d’enquêtes de sécurité intérieure le même type de véhicule.

Le DHS utilisera des chatbots pour former les agents d’immigration qui ont travaillé avec d’autres employés et sous-traitants se faisant passer pour des réfugiés et des demandeurs d’asile. Les outils d’IA permettront aux fonctionnaires de suivre davantage de formation grâce à des simulations d’entretiens. Les chatbots examineront également les informations sur les communautés à travers le pays pour les aider à créer des plans de secours en cas de catastrophe.

L’agence rendra compte des résultats de ses programmes pilotes d’ici la fin de l’année, a déclaré Eric Hysen, directeur de l’information du département et responsable de l’IA.

L’agence a choisi OpenAI, Anthropic et Meta pour expérimenter une variété d’outils et utilisera les fournisseurs de cloud Microsoft, Google et Amazon dans ses programmes pilotes. Nous ne pouvons pas y parvenir seuls, a-t-il déclaré. Nous devons travailler avec le secteur privé pour aider à définir ce qu’est une utilisation responsable d’une IA générative.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite