#image_title

OpenAI nous amène à nous demander : qu’est-il arrivé au développement de logiciels éthiques ?

OpenAI

En 2016, Adobe a développé une technologie mieux décrite comme « Photoshop pour l’audio ». Il serait capable de changer les mots d’une voix off simplement en tapant de nouveaux mots. Cela semble effrayant, non ? C’était le cas, et Adobe ne l’a jamais publié – pour une bonne raison.

Appelée projet VoCo, la technologie a été présentée lors de l’événement « Sneaks » d’Adobe lors de sa conférence annuelle MAX et a immédiatement fait tourner les têtes. Après MAX, les retours concernant VoCo ont été si importants qu’Adobe a ressenti le besoin de publier un article de blog complet à ce sujet pour le défendre.

« Il s’agit d’une technologie avec plusieurs cas d’utilisation convaincants, permettant à quiconque d’éditer facilement des voix off pour des vidéos ou des podcasts audio. Et, si vous disposez d’un échantillon de 20 minutes de haute qualité de quelqu’un qui parle, vous pourrez peut-être même ajouter de nouveaux mots et phrases dans sa voix sans avoir à le rappeler pour des enregistrements supplémentaires », a écrit Mark Randall, en se concentrant sur les points positifs de la technologie.

« Cela permet aux éditeurs audio occupés de produire des publicités radio, des podcasts, des livres audio, des narrations en voix off et une myriade d’autres applications d’économiser du temps et de l’argent. Mais dans certains cas, cela pourrait également faciliter la création d’un montage réaliste de quelqu’un prononçant une séquence de mots qu’il n’a jamais réellement prononcés.

Randall poursuit en affirmant que les nouvelles technologies comme celle-ci, même si elles peuvent être controversées ou effrayantes, ont également de nombreux effets positifs. Tout en admettant que « des gens sans scrupules pourraient déformer [it] à des fins néfastes », poursuit-il en défendant le développement de la technologie en raison du bien qu’elle peut apporter.

« Il existe des outils (Adobe Audition en fait partie) pour couper et coller des syllabes vocales dans des mots, ainsi que pour modifier la hauteur et mélanger le discours afin qu’il paraisse naturel », a-t-il soutenu.

« Le projet VoCo ne change pas ce qui est possible, il le rend simplement plus facile et plus accessible à un plus grand nombre de personnes. Comme l’imprimerie et la photographie avant elle, cela a le potentiel de démocratiser le montage audio, ce qui à son tour remet en question nos attentes culturelles et suscite un débat sur l’authenticité de ce que nous entendons. C’est une bonne chose.

Même si Adobe a peut-être adopté cette position au départ, VoCo n’a jamais vu le jour. De toute évidence, Adobe s’est rendu compte que le risque de ce que VoCo pourrait faire l’emporterait sur les avantages. Ou, peut-être plus probablement, le service juridique d’Adobe ne pouvait tout simplement pas supporter l’idée de tenter de défendre l’entreprise lorsque la technologie était utilisée pour mettre des propos inconvenants dans la bouche d’un leader mondial.

Si VoCo était un risque, qu’est-ce que c’est que Sora ?

Je me souviens très bien d’avoir été assis dans la foule en train de regarder la présentation de VoCo et d’avoir pensé : « Cela ne peut pas être diffusé. Tout bien qu’elle pourrait apporter sera largement contrebalancé par les dégâts qu’elle pourrait causer. »

Je n’aurais jamais pensé citer Adobe comme un brillant exemple d’éthique et de moralité, mais nous y sommes. Adobe a accepté et VoCo n’a jamais vu le jour.

Mais les gens d’OpenAI ne semblent pas animés par la même moralité, ou du moins n’ont pas peur des répercussions juridiques potentielles. C’est peut-être parce que l’entreprise pense qu’elle peut éviter n’importe lequel de ces problèmes grâce au codage, mais je me demande ce qui est arrivé au développement logiciel éthique ?

J’ai du mal à croire qu’à aucun moment lors de la création de Sora – un tout nouveau logiciel d’intelligence artificielle de texte en vidéo – quelqu’un chez OpenAI n’ait levé la main pour s’inquiéter des ramifications que cette technologie aurait. Malgré cela, l’entreprise est allée de l’avant, faisant le choix actif d’ignorer ces préoccupations.

Écoute, Sora est fascinante. Les capacités de ce logiciel qui n’en est qu’à ses balbutiements sont déjà stupéfiantes, mais je ne peux m’empêcher d’être rempli d’un sentiment d’effroi et d’appréhension.

Si VoCo était jugé trop risqué, comment Sora ne l’est-il pas ? Ce n’est pas parce que vous pouvez créer quelque chose que vous devriez le faire.

En 2016, VoCo avait l’impression beaucoup. C’était bien plus avancé que tout ce que nous avions jamais vu auparavant. C’était choquant. Mais aujourd’hui, en 2024, l’IA s’est infiltrée dans de nombreux domaines de la vie quotidienne et maintenant, après plus d’un an de générateurs d’images IA, peut-être que les gens ne réalisent pas vraiment ce qui se passe. Nous sommes une grenouille qui ne sait pas qu’on la fait bouillir.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite