ChatGPT peut être trompé pour écrire des logiciels malveillants s’il agit en mode développeur
Les utilisateurs peuvent inciter ChatGPT à écrire du code pour des applications logicielles malveillantes en saisissant une invite qui fait réagir le chatbot d’intelligence artificielle comme s’il était en mode développeur, ont déclaré jeudi des experts japonais en cybersécurité.
Cette découverte a mis en évidence la facilité avec laquelle les garanties mises en place par les développeurs pour empêcher l’utilisation criminelle et contraire à l’éthique de l’outil peuvent être contournées.
Alors que l’on craint de plus en plus que les chatbots IA ne conduisent à davantage de criminalité et de fragmentation sociale, les appels se multiplient pour des discussions sur des réglementations appropriées lors du sommet du Groupe des Sept à Hiroshima le mois prochain et d’autres forums internationaux.
Impossible de voir cet article ?
Cela peut être dû à un conflit avec votre logiciel de blocage des publicités ou de sécurité.
S’il-vous-plait ajoutez japantimes.co.jp et piano.io à votre liste de sites autorisés.
Si cela ne résout pas le problème ou si vous ne parvenez pas à ajouter les domaines à votre liste d’autorisation, veuillez consulter cette FAQ.
Nous nous excusons humblement pour la gêne occasionnée.
À une époque à la fois de désinformation et de trop d’informations, un journalisme de qualité est plus crucial que jamais.
En vous abonnant, vous pouvez nous aider à bien raconter l’histoire.
ABONNEZ-VOUS MAINTENANT