Changements récents dans l’espace réglementaire de la cybersécurité en Inde | Conférences ICLG.com
Depuis la rédaction du chapitre indien du Guide juridique comparé international – Cybersécurité 2024…
Depuis la rédaction du chapitre indien du Guide juridique comparé international – Cybersécurité 2024, des changements réglementaires ont été apportés aux lois avec la refonte de l’IPC, du CRPC et des lois indiennes sur les preuves pour les rendre plus conformes aux technologies du nouvel âge. . Cela change le Code pénal indien de 1860 (« IPC ») en Bharatiya Nyaya Sanhita, 2023 (« BNS »), tandis que le Code de procédure pénale de 1973 (« CrPC ») sera connu sous le nom de Bharatiya Nagarik Suraksha Sanhita, 2023 (« CrPC »). BNSS »), et l’Indian Evidence Act (« IE ») sous le nom de Bharatiya Sakshya Bill, 2023 (« BSB »).
Avec cela, il y a une orientation claire vers une refonte de la loi informatique de 2000 également, qui deviendra la « loi sur l’Inde numérique » et qui sera probablement en vigueur après les élections générales plus tard cette année. ce qui précède consiste à garantir que les lois sont très étroitement liées les unes aux autres, la loi sur l’Inde numérique étant la loi primordiale dans le domaine de la cybersécurité, de l’IA et de la confidentialité des données, la loi sur la protection des données personnelles numériques de 2023 et les lois probables au niveau sectoriel. le tout intégré dans un cadre global.
Entre-temps, quelques avis ont été émis sur l’utilisation appropriée de l’IA et sur la lutte contre l’utilisation abusive généralisée de ces outils pour la diffusion de fausses vidéos et d’informations. Le gouvernement a adopté une position ferme à ce sujet.
Avis du gouvernement indien sur la réglementation du contenu non vérifié publié sur les plateformes de médias sociaux
Le ministère de l’Électronique et des Technologies de l’information (MeitY) a partagé un avis portant le numéro. e.No.2 (4) /2023- Cyber Laws-2 le 23 décembre 2023, pour souligner la nécessité pour les intermédiaires de surveiller les contenus générés et diffusés sur leurs plateformes qui étaient faux ou non autorisés en vertu de la règle 3, paragraphe 1, b, du règlement informatique, ainsi que les conséquences pénales de tels actes.
À la suite de cela, le gouvernement indien, par l’intermédiaire du Cyber Law and Data Governance Group, a publié un avis le 1er mars 2024 et révisé le 15 mars 2024, portant le numéro 1. e.No.2 (4) /2023- Cyber-lois-3. L’avis exige une diligence raisonnable du contenu publié sur les plates-formes d’IA et les intermédiaires en vertu de la loi informatique de 2000 et conformément aux règles informatiques (directives intermédiaires et code d’éthique des médias numériques), 2021.
Conformément à ces lignes directrices, les plateformes d’IA et les intermédiaires sont tenus de prendre les mesures suivantes pour garantir une diligence raisonnable concernant le contenu publié sur ces plateformes :
1. Il ne doit pas permettre aux utilisateurs d’héberger, d’afficher, de télécharger, de modifier, de publier, de transmettre, de stocker, de mettre à jour ou de partager tout contenu illégal comme indiqué dans la règle 3(1) (b) des règles informatiques, ou de violer toute autre disposition. de la loi informatique et des autres lois en vigueur.
2. Les intermédiaires et les plateformes doivent s’assurer que leurs ressources informatiques ne permettent aucun biais ou discrimination, ni aucun contenu généré par l’utilisation de modèles d’IA, d’IA générative ou de LLM, ou de tout logiciel ou algorithme.
3. Le contenu généré ne doit pas menacer l’intégrité du processus électoral dans la perspective des prochaines élections générales dans le pays.
4. L’utilisation de modèles d’IA sous-testés ou peu fiables ou d’algorithmes ou de logiciels LLM/IA générative et leur disponibilité pour les utilisateurs sur l’Internet indien ne peuvent être effectués qu’après avoir étiqueté de manière appropriée la possible faillibilité inhérente ou le manque de fiabilité du résultat généré.
5. En outre, le consentement sous la forme de mécanismes contextuels doit être utilisé pour attirer l’attention de l’utilisateur et l’informer explicitement de la faillibilité ou du manque de fiabilité du résultat généré par un tel LLM/IA générative sous-testé et peu fiable. algorithmes ou logiciels.
6. Conditions de service et accords d’utilisation clairs sur les conséquences du traitement des informations illégales sur les plateformes, y compris la désactivation de l’accès ainsi que la suppression des informations non conformes, la suspension ou la résiliation de l’utilisation et des droits d’accès de l’utilisateur à son compte, le cas échéant, et également le fait que de telles infractions sont punies en vertu des lois informatiques applicables.
7. Lorsqu’un intermédiaire ou une plateforme d’IA permet la création, la génération ou la modification d’un texte, d’un contenu audio, visuel ou d’une combinaison de ceux-ci via son logiciel ou toute autre ressource informatique, de telle manière que ces informations puissent être utilisées potentiellement comme désinformation ou deepfake, il est conseillé que ces informations créées, générées ou modifiées via son logiciel ou toute autre ressource informatique soient étiquetées ou intégrées avec des métadonnées ou un identifiant unique permanent, quel que soit le nom appelé, de manière à ce que cette étiquette, métadonnées, ou l’identifiant peut être utilisé pour identifier que ces informations ont été créées, générées ou modifiées à l’aide d’une ressource informatique de l’intermédiaire, ou identifier l’utilisateur du logiciel ou de toute autre ressource informatique, l’intermédiaire par l’intermédiaire duquel le logiciel ou toute autre ressource informatique utilise ces informations. a été créé, généré ou modifié et le créateur ou premier auteur de cette désinformation ou de ce deepfake.
8. L’avis réitère en outre que tout non-respect des dispositions de la loi informatique et/ou des règles informatiques entraînerait des conséquences pénales potentielles pour les intermédiaires ou les plateformes ou leurs utilisateurs une fois identifiés, y compris, mais sans s’y limiter, des poursuites en vertu de la loi informatique et plusieurs autres lois du Code criminel. Tous les intermédiaires sont tenus de veiller au respect de l’avis ci-dessus avec effet immédiat.[1]
Auparavant, le 7 novembre 2023, le gouvernement de l’Union avait publié un avis aux intermédiaires des médias sociaux pour qu’ils identifient la désinformation et les deepfakes en prenant les mesures suivantes :
• Veiller à ce qu’une diligence raisonnable soit exercée et que des efforts raisonnables soient déployés pour identifier les informations erronées et les deepfakes, et en particulier les informations qui enfreignent les dispositions des règles et réglementations et/ou des accords d’utilisation ;
• Veiller à ce que de telles affaires soient traitées rapidement, dans les délais stipulés dans les règles informatiques 2021 ;
• Veiller à ce que les utilisateurs ne soient pas amenés à héberger de telles informations/contenus/Deep Fakes ;
• Supprimer tout contenu de ce type lorsqu’il est signalé dans les 36 heures suivant ce signalement ; et
• Garantissez une action rapide, dans les délais stipulés dans les règles informatiques 2021, et désactivez l’accès au contenu/aux informations.
Il a été rappelé aux intermédiaires que tout manquement à agir conformément aux dispositions pertinentes de la loi et des règles informatiques entraînerait la règle 7 des règles informatiques de 2021 et pourrait exposer l’organisation à la perte de la protection offerte aux intermédiaires en vertu de l’article 79 (1) du la Loi sur les technologies de l’information, 2000.[2]
Ainsi, le gouvernement a pris des mesures cohérentes pour lutter contre la menace des contenus non vérifiés, des deepfakes, des fausses nouvelles et d’autres publications similaires sur les réseaux sociaux et les plateformes intermédiaires qui sont générées à l’aide d’algorithmes et de logiciels LLM ou Generative AI et sont susceptibles d’induire le grand public en erreur. public ou influencer indûment l’opinion publique pour manipuler les masses avant les prochaines élections générales dans le pays. Un tel contenu peut provoquer des troubles généralisés et créer une atmosphère peu propice à des élections libres et équitables. Les mesures prises par le ministère au moyen de ces avis sont susceptibles d’avoir un impact positif pour garantir la paix, l’ordre public et empêcher la circulation de fausses nouvelles ou de contenus non vérifiés.
Notes de fin
[1] Groupe Cyber Droit et Gouvernance des Données – MeitY, Avis du 15 mars 2024sur : meity.gov.in/writereaddata/files/Advisory 15March 2024.pdf
[2] Gouvernement syndical, Avis du 7 novembre 2023sur : https://pib.gov.in/PressReleaseIframePage.aspx?PRID=1975445
Trouvez plus d’informations sur les lois sur la cybersécurité en Inde grâce à la contribution de LexOrbis à ICLG – Cybersecurity 2024.