Les problèmes de sécurité s’accentuent à mesure que les entreprises déploient des outils de codage d’IA
Brief de plongée :
- Alors qu’un tiers des décideurs informatiques estiment qu’il est essentiel d’adopter rapidement des outils de codage d’IA, ceux qui travaillent directement avec ces solutions ont des problèmes de sécurité, selon une étude. Snyk enquête publiée mardi.
- Près de 3 décideurs technologiques de la haute direction sur 5 ont cité des craintes de sécurité associées aux outils de codage de l’IA, mais les équipes de sécurité des applications et les développeurs étaient trois fois plus probable pour évaluer la sécurité du code généré par l’IA comme étant mauvaise.
- Seulement 1 organisation sur 5 exécuter des preuves de concept avant d’introduire des options de codage d’IA, et plus de la moitié des organisations n’ont pas fourni aux développeurs de formation relative aux outils, selon l’enquête menée auprès de 406 professionnels informatiques mondiauxs.
Aperçu de la plongée :
Les outils de codage de l’IA sont devenant plus populairemais le temps presse pour que les entreprises adoptent des protocoles garantissant une utilisation sûre et sécurisée.
Des grandes banques aux grands détaillants, les ingénieurs logiciels se familiarisent avec la technologie. Près des deux tiers des organisations sont en phase pilote ou de déploiement d’outils de codage d’IA, selon une enquête Gartner publiée en avril. Le cabinet d’analystes s’attend à ce que l’utilisation des outils de codage de l’IA fasse boule de neige au cours des quatre prochaines années.
L’ère GenAI est arrivée, et il n’est pas possible de remettre le génie dans la bouteille, Danny Allan, directeur technique chez Snyk, dit dans le rapport. Nous pensons qu’il incombe désormais au secteur de la cybersécurité de recommander des lignes directrices claires qui nous permettront à tous de bénéficier de cette productivité accrue, sans les sacrifices de sécurité qui y sont associés.
Le rapport Snyks recommande aux entreprises d’établir des processus formels de preuve de concept pour toutes les nouvelles technologies d’IA, de donner la priorité aux commentaires des équipes de sécurité, de documenter et d’auditer le code généré par l’IA, d’investir dans des technologies sécurisées et d’augmenter la formation en IA à l’échelle de l’entreprise.