#image_title

Comment les progrès de l’IA affectent la cybersécurité des entreprises – Help Net Security

Bien que ChatGPT et Bard se soient révélés être des outils précieux pour les développeurs, les spécialistes du marketing et les consommateurs, ils comportent également le risque d’exposer involontairement des données sensibles et confidentielles.

IA interactive

Du point de vue de la sécurité, il est toujours utile de penser avec une longueur d’avance et à ce qui pourrait suivre. L’IA interactive est l’une des dernières avancées en matière de technologie de l’IA.

Alors que les outils d’IA générative peuvent créer du nouveau contenu, écrire du code, effectuer des calculs et engager des conversations de type humain, l’IA interactive peut être utilisée pour des tâches telles que la géolocalisation et la navigation ou les applications de synthèse vocale, ouvrant la voie à la prochaine phase des chatbots et assistants numériques.

En tant que professionnels de la cybersécurité, nous prenons en compte les risques de sécurité et les implications qu’elle présente pour les entreprises, et nous devons faire de notre mieux pour garder le contrôle et fixer des limites et des limites claires sur ce que la technologie peut faire.

Les enseignements de la phase d’IA générative

Lorsque nous réfléchissons aux implications de l’IA interactive en matière de sécurité, nous devons d’abord considérer les préoccupations qui ont déjà été soulevées concernant les modèles d’IA générative et les LLM. Celles-ci vont des préoccupations éthiques aux préjugés politiques et idéologiques, en passant par les modèles non censurés et les fonctionnalités hors ligne.

Les préoccupations éthiques font référence à la prévention des LLM de s’engager dans des activités contraires à l’éthique ou inappropriées. En affinant ces modèles, les développeurs ont pu élaborer des politiques et des garde-fous garantissant que les systèmes d’IA refusent les demandes de contenu préjudiciable ou contraire à l’éthique. À mesure que l’IA interactive évolue et dispose de plus d’autonomie que les modèles d’IA générative, nous devons garantir que ces politiques et garde-fous demeurent pour empêcher l’IA d’interagir et d’interagir avec des contenus préjudiciables, offensants ou illégaux.

De plus, les chatbots IA non censurés présentent un défi de sécurité important car ils fonctionnent en dehors des contraintes des règles et des contrôles suivis par des modèles fermés comme ChatGPT. Une caractéristique unique de ces modèles est leur fonctionnalité hors ligne, ce qui rend le suivi de l’utilisation extrêmement difficile.

Le manque de surveillance devrait sonner l’alarme pour les équipes de sécurité, car les utilisateurs peuvent potentiellement se livrer à des activités néfastes sans être détectés.

Bonnes pratiques pour la sécurité des entreprises

Si l’IA interactive est la voie vers laquelle nous nous dirigeons à l’avenir, de nombreuses organisations se demanderont sans aucun doute comment elles peuvent adopter cette technologie et si elle est vraiment adaptée à leur activité.

Ce processus implique de réfléchir aux risques de sécurité qu’il présente. Il est donc impératif pour les entreprises de travailler aux côtés des équipes informatiques et de sécurité et de leurs employés pour mettre en œuvre des mesures de sécurité robustes afin d’atténuer les risques associés.

Cela pourrait inclure les éléments suivants comme bonnes pratiques :

  • Adopter une stratégie data first : Cette approche, en particulier dans un cadre de confiance zéro, donne la priorité à la sécurité des données au sein de l’entreprise. En identifiant et en comprenant comment les données sont stockées, utilisées et déplacées au sein d’une organisation et en contrôlant qui a accès à ces données, les équipes de sécurité peuvent répondre rapidement aux menaces telles que l’accès non autorisé aux données sensibles.
  • Contrôles d’accès stricts : Avec une main-d’œuvre hybride et distribuée, cela est crucial pour empêcher les utilisateurs non autorisés d’interagir avec et d’exploiter les systèmes d’IA. Parallèlement à la surveillance continue et à la collecte de renseignements, la limitation de l’accès aide les équipes de sécurité à identifier et à répondre rapidement aux failles de sécurité potentielles. Cette approche est plus efficace que les outils de blocage pur et simple, qui peuvent entraîner des risques informatiques fantômes et des pertes de productivité.
  • Collaborer avec l’IA : À l’opposé de l’échelle, l’IA et l’apprentissage automatique peuvent également améliorer considérablement la sécurité et la productivité des entreprises. Il peut aider les équipes de sécurité en simplifiant les processus de sécurité et en améliorant leur efficacité afin qu’elles puissent consacrer leur temps là où elles en ont le plus besoin. Pour les employés, une formation adéquate sur l’utilisation sûre et sécurisée des outils d’IA est nécessaire tout en reconnaissant le caractère inévitable de l’erreur humaine.
  • Établir des lignes directrices éthiques claires : Les organisations doivent définir des règles claires pour l’utilisation de l’IA au sein de leur entreprise. Cela implique de lutter contre les préjugés et de garantir qu’ils disposent de politiques et de garde-fous intégrés pour empêcher les systèmes d’IA de produire ou d’interagir avec des contenus préjudiciables.

Bien que l’IA interactive constitue une avancée majeure dans le domaine de l’intelligence artificielle, le territoire inexploré signifie que les entreprises doivent avancer avec prudence, sinon elles risquent de franchir la frontière ténue entre l’IA en tant qu’outil puissant et un risque potentiel pour leur organisation.

La réalité est que l’IA ne mène nulle part. Pour innover continuellement et garder une longueur d’avance, les entreprises doivent adopter une approche réfléchie et mesurée pour adopter l’IA tout en protégeant leurs résultats.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite