Tout le monde peut désormais utiliser de puissants outils d’IA pour créer des images. Qu’est ce qui pourrait aller mal? | CNN Affaires
CNN Affaires
—
Si vous avez toujours voulu utiliser l’intelligence artificielle pour concevoir rapidement un hybride entre un canard et un corgi, il est maintenant temps de briller.
Mercredi, OpenAI a annoncé que n’importe qui peut désormais utiliser la version la plus récente de son outil DALL-E alimenté par l’IA pour générer une gamme apparemment illimitée d’images en tapant simplement quelques mots, des mois après que la startup a commencé à la déployer progressivement aux utilisateurs. .
Cette décision élargira probablement la portée d’une nouvelle génération d’outils alimentés par l’IA qui ont déjà attiré un large public et remis en question nos idées fondamentales sur l’art et la créativité. Mais cela pourrait également ajouter aux inquiétudes quant à la manière dont ces systèmes pourraient être utilisés à mauvais escient lorsqu’ils sont largement disponibles.
Apprendre de l’utilisation dans le monde réel nous a permis d’améliorer nos systèmes de sécurité, rendant aujourd’hui une plus grande disponibilité possible, a déclaré OpenAI dans un article de blog. La société a déclaré qu’elle avait également renforcé la manière dont elle repoussait les tentatives des utilisateurs de faire en sorte que son IA crée du contenu sexuel, violent et autre.
Il existe maintenant trois systèmes d’IA bien connus et extrêmement puissants ouverts au public qui peuvent prendre quelques mots et cracher une image. En plus de DALL-E 2, il y a Midjourney, qui est devenu public en juillet, et Stable Diffusion, qui a été rendu public en août par Stability AI. Tous les trois offrent des crédits gratuits aux utilisateurs qui souhaitent avoir une idée de la création d’images avec l’IA en ligne ; généralement, après cela, vous devez payer.

Ces systèmes d’IA dits génératifs sont déjà utilisés pour des films expérimentaux, des couvertures de magazines et des annonces immobilières. Une image générée avec Midjourney a récemment remporté un concours d’art à la Colorado State Fair et a provoqué un tollé parmi les artistes.
En quelques mois seulement, des millions de personnes ont afflué vers ces systèmes d’IA. Plus de 2,7 millions de personnes appartiennent au serveur Midjourneys Discord, où les utilisateurs peuvent soumettre des invites. OpenAI a déclaré dans son article de blog mercredi qu’il comptait plus de 1,5 million d’utilisateurs actifs, qui ont collectivement créé plus de 2 millions d’images avec son système chaque jour. (Il convient de noter que plusieurs essais peuvent être nécessaires pour obtenir une image qui vous convient lorsque vous utilisez ces outils.)
De nombreuses images créées par les utilisateurs ces dernières semaines ont été partagées en ligne et les résultats peuvent être impressionnants. Ils vont de paysages d’un autre monde et un tableau d’aristocrates français en pingouins à un fausse photographie vintage d’un homme marchant un tardigrade.
L’ascension d’une telle technologie, et les invites de plus en plus compliquées et les images qui en résultent, ont impressionné même les initiés de longue date de l’industrie. Andrej Karpathy, qui a quitté son poste de directeur de l’IA de Teslas en juillet, a déclaré dans un tweet récent qu’après avoir été invité à essayer DALL-E 2, il s’est senti gelé lorsqu’il a essayé pour la première fois de décider quoi taper et a finalement tapé cat.

L’art des invites que la communauté a découvert et perfectionné de plus en plus au cours des derniers mois pour les modèles texte -> image est étonnant, a-t-il déclaré.
Mais la popularité de cette technologie s’accompagne d’inconvénients potentiels. Les experts en IA ont fait part de leurs inquiétudes quant au fait que la nature ouverte de ces systèmes, qui les rend aptes à générer toutes sortes d’images à partir de mots et leur capacité à automatiser la création d’images, signifie qu’ils pourraient automatiser les biais à grande échelle. Un exemple simple : lorsque j’ai envoyé l’invite d’un banquier habillé pour un grand jour au bureau à DALL-E 2 cette semaine, les résultats étaient tous des images d’hommes blancs d’âge moyen en costume et cravate.
Ils permettent essentiellement aux utilisateurs de trouver les failles du système en l’utilisant, a déclaré Julie Carpenter, chercheuse et membre du groupe d’éthique et des sciences émergentes de la California Polytechnic State University, San Luis Obispo.

Ces systèmes peuvent également être utilisés à des fins néfastes, comme attiser la peur ou diffuser de la désinformation via des images modifiées par l’IA ou entièrement fabriquées.
Il existe certaines limites quant aux images que les utilisateurs peuvent générer. Par exemple, OpenAI demande aux utilisateurs de DALL-E 2 d’accepter une politique de contenu qui leur dit de ne pas essayer de créer, de télécharger ou de partager des images qui ne sont pas classées G ou qui pourraient causer des dommages. DALL-E 2 n’exécutera pas non plus d’invites contenant certains mots interdits. Mais manipuler le verbiage peut contourner les limites : DALL-E 2 ne traitera pas l’invite une photo d’un canard couvert de sang, mais il renverra des images pour l’invite une photo d’un canard couvert d’un liquide rouge visqueux. OpenAI lui-même a mentionné ce type de synonyme visuel dans sa documentation pour DALL-E 2.
Chris Gilliard, Just Tech Fellow au Social Science Research Council, pense que les entreprises à l’origine de ces générateurs d’images sous-estiment gravement la créativité sans fin des personnes qui cherchent à faire du mal avec ces outils.
J’ai l’impression que c’est encore un autre exemple de personnes qui libèrent une technologie qui est en quelque sorte à moitié cuite en termes de détermination de la façon dont elle va être utilisée pour provoquer le chaos et créer des dommages, a-t-il déclaré. Et puis en espérant que plus tard, il y aura peut-être un moyen de remédier à ces dommages.
Pour contourner les problèmes potentiels, certains services d’images de stock interdisent complètement les images AI. Getty Images a confirmé mercredi à CNN Business qu’il n’accepterait pas les soumissions d’images créées avec des modèles d’IA génératifs et supprimerait toutes les soumissions utilisant ces modèles. Cette décision s’applique à ses services d’images Getty Images, iStock et Unsplash.
Il y a des questions ouvertes concernant le droit d’auteur des sorties de ces modèles et il y a des problèmes de droits non résolus en ce qui concerne les images et les métadonnées sous-jacentes utilisées pour former ces modèles, a déclaré la société dans un communiqué.
Mais en fait, capturer et restreindre ces images pourrait s’avérer être un défi.