Avec le battage médiatique de ChatGPT, le gouvernement britannique exhorte les régulateurs à proposer des règles pour l’IA
- Le gouvernement britannique a publié un livre blanc pour l’industrie de l’intelligence artificielle.
- Il appelle les régulateurs à proposer des approches sur mesure et spécifiques au contexte qui conviennent à la manière dont l’IA est réellement utilisée dans leurs secteurs.
- L’IA, qui contribue à environ 3,7 milliards de dollars à l’économie britannique, doit se conformer aux lois existantes et ne pas discriminer les individus ou créer des résultats commerciaux injustes, a déclaré mercredi le gouvernement.
- L’arrivée des recommandations intervient alors que des outils d’IA génératifs tels que ChatGPT ont suscité une vague de demande pour la technologie.
L’emblème et le site Web ChatGPT et OpenAI.
Nurphoto | Nurphoto | Getty Images
Le gouvernement britannique a publié mercredi des recommandations pour l’industrie de l’intelligence artificielle, décrivant une approche globale pour réglementer la technologie à un moment où elle a atteint des niveaux de battage médiatique frénétiques.
Dans un livre blanc qui sera présenté au Parlement, le Département de la science, de l’innovation et de la technologie (DSIT) exposera cinq principes qu’il souhaite que les entreprises suivent. Ce sont : sûreté, sécurité et robustesse ; transparence et explicabilité; justice; responsabilisation et gouvernance; et la contestabilité et la réparation.
Plutôt que d’établir de nouvelles réglementations, le gouvernement appelle les régulateurs à appliquer les réglementations existantes et à informer les entreprises de leurs obligations en vertu du livre blanc.
Il a chargé le responsable de la santé et de la sécurité, la commission pour l’égalité et les droits de l’homme et l’autorité de la concurrence et des marchés de proposer « des approches sur mesure et spécifiques au contexte qui conviennent à la manière dont l’IA est réellement utilisée dans leurs secteurs ».
« Au cours des douze prochains mois, les régulateurs publieront des conseils pratiques aux organisations, ainsi que d’autres outils et ressources comme des modèles d’évaluation des risques, pour définir comment mettre en œuvre ces principes dans leurs secteurs », a déclaré le gouvernement.
« Lorsque le temps parlementaire le permet, une législation pourrait être introduite pour garantir que les régulateurs tiennent compte des principes de manière cohérente. »
Maya Pindeus, PDG et co-fondatrice de la startup d’IA Humanising Autonomy, a déclaré que la décision du gouvernement marquait un « premier pas » vers la réglementation de l’IA.
« Il doit y avoir un récit un peu plus fort », a-t-elle déclaré. « J’espère voir ça. C’est en quelque sorte planter les graines pour ça. »
Cependant, a-t-elle ajouté, « Réglementer la technologie en tant que technologie est incroyablement difficile. Vous voulez qu’elle progresse, vous ne voulez pas entraver les progrès lorsque cela nous affecte de certaines manières. »
L’arrivée des recommandations est opportune. ChatGPT, le chatbot AI populaire développé par la société OpenAI soutenue par Microsoft, a suscité une vague de demande pour la technologie, et les gens utilisent l’outil pour tout, de la rédaction d’essais scolaires à la rédaction d’avis juridiques.
ChatGPT est déjà devenu l’une des applications grand public à la croissance la plus rapide de tous les temps, attirant 100 millions d’utilisateurs actifs par mois en février. Mais les experts ont exprimé des inquiétudes quant aux implications négatives de la technologie, y compris le potentiel de plagiat et de discrimination à l’égard des femmes et des minorités ethniques.
Les éthiciens de l’IA s’inquiètent des biais dans les données qui forment les modèles d’IA. Il a été démontré que les algorithmes ont tendance à être biaisés en faveur des hommes, en particulier des hommes blancs, désavantageant les femmes et les minorités.
Des craintes ont également été exprimées quant à la possibilité que des emplois soient perdus à cause de l’automatisation. Mardi, Goldman Sachs a averti que pas moins de 300 millions d’emplois pourraient être anéantis par les produits d’IA générative.
Le gouvernement souhaite que les entreprises qui intègrent l’IA dans leurs activités veillent à fournir un niveau de transparence suffisant sur la manière dont leurs algorithmes sont développés et utilisés. Les organisations « devraient être en mesure de communiquer quand et comment il est utilisé et d’expliquer le processus de prise de décision d’un système avec un niveau de détail approprié qui correspond aux risques posés par l’utilisation de l’IA », a déclaré le DSIT.
Les entreprises devraient également offrir aux utilisateurs un moyen de contester les décisions prises par les outils basés sur l’IA, a déclaré la DSIT. Les plates-formes générées par les utilisateurs comme Facebook, TikTok et YouTube utilisent souvent des systèmes automatisés pour supprimer le contenu signalé comme étant contraire à leurs directives.
L’IA, qui est censée apporter 3,7 milliards de dollars (4,6 milliards de dollars) à l’économie britannique chaque année, devrait également « être utilisée d’une manière conforme aux lois britanniques en vigueur, par exemple la loi sur l’égalité de 2010 ou le RGPD britannique, et ne doit pas discriminer contre des individus ou créer des résultats commerciaux déloyaux », a ajouté la DSIT.
Lundi, la secrétaire d’État Michelle Donelan a visité les bureaux de la startup d’IA DeepMind à Londres, a déclaré un porte-parole du gouvernement.
« L’intelligence artificielle n’est plus du ressort de la science-fiction, et le rythme de développement de l’IA est stupéfiant, nous devons donc avoir des règles pour nous assurer qu’elle est développée en toute sécurité », a déclaré Donelan dans un communiqué mercredi.
« Notre nouvelle approche est basée sur des principes forts afin que les gens puissent faire confiance aux entreprises pour libérer cette technologie de demain. »
Lila Ibrahim, directrice de l’exploitation de DeepMind et membre du Conseil britannique de l’IA, a déclaré que l’IA est une « technologie de transformation », mais qu’elle « ne peut atteindre son plein potentiel que si elle est digne de confiance, ce qui nécessite un partenariat public et privé dans l’esprit d’être pionnier de manière responsable. »
« L’approche contextuelle proposée par le Royaume-Uni aidera la réglementation à suivre le rythme du développement de l’IA, à soutenir l’innovation et à atténuer les risques futurs », a déclaré Ibrahim.
Cela vient après que d’autres pays aient mis au point leurs propres régimes respectifs de réglementation de l’IA. En Chine, le gouvernement a demandé aux entreprises technologiques de fournir des détails sur leurs précieux algorithmes de recommandation, tandis que l’Union européenne a proposé ses propres réglementations pour l’industrie.
Tout le monde n’est pas convaincu par l’approche du gouvernement britannique en matière de réglementation de l’IA. John Buyers, responsable de l’IA au sein du cabinet d’avocats Osborne Clarke, a déclaré que la décision de déléguer la responsabilité de la supervision de la technologie aux régulateurs risquait de créer un « patchwork réglementaire compliqué plein de trous ».
« Le risque avec l’approche actuelle est qu’un système d’IA problématique devra se présenter dans le bon format pour déclencher la juridiction d’un régulateur, et de plus le régulateur en question devra disposer des bons pouvoirs d’exécution pour prendre des mesures décisives et efficaces. pour réparer le préjudice causé et générer un effet dissuasif suffisant pour inciter à la conformité dans l’industrie », a déclaré Buyers à CNBC par e-mail.
En revanche, l’UE a proposé un « cadre réglementaire descendant » en ce qui concerne l’IA, a-t-il ajouté.
MONTRE: Trois décennies après avoir inventé le Web, Tim Berners-Lee a quelques idées pour y remédier