Un ancien cadre de Google explique comment l’IA affecte la sécurité sur Internet | Cible technologique

L’ère des médias sociaux a été marquée par une augmentation du volume des discours de haine, de la désinformation et des abus en ligne. Et avec la popularité croissante des générateurs de texte et d’images basés sur l’IA, le paysage du contenu sur Internet est susceptible de se transformer encore davantage.

Le co-fondateur et PDG de Trust Lab, Tom Siegel, a un point de vue unique sur ces défis. Au cours de son mandat de près de 15 ans chez Google, il a dirigé l’équipe de confiance et de sécurité avant de partir créer Trust Lab, une startup développant des logiciels visant à détecter les contenus nuisibles.

Les dommages sur Internet sont bien sûr antérieurs à la récente vague d’IA générative, et Trust Lab a été fondé en 2019 – bien avant le lancement de ChatGPT, Midjourney et d’autres outils qui ont déclenché des conversations récentes sur les implications de l’IA en matière de confiance et de sécurité. Mais Siegel estime que dans les années à venir, il sera essentiel d’identifier et de combattre les nouvelles formes d’abus et de désinformation liés à l’IA.

Siegel s’est entretenu avec TechTarget Editorial pour discuter des défis émergents autour de l’IA et d’Internet. Dans cette interview, il évoque la politique technologique imminente, les limites des engagements volontaires de l’industrie en matière d’éthique de l’IA, ainsi que les risques et opportunités qui attendent les entreprises technologiques et les régulateurs.

Note de l’éditeur: Ces questions et réponses ont été modifiées pour plus de clarté et de concision.

Qu’est-ce qui vous a amené à fonder Trust Lab ? Quels problèmes espériez-vous résoudre ?

Tom Siegel : J’ai rejoint Google très tôt, avant son introduction en bourse. J’étais responsable du domaine que nous appelons désormais confiance et sécurité, puis nous appelions simplement qualité du contenu. Au départ, il n’existait qu’un seul produit : la recherche sur le Web Google. Mais au fur et à mesure que l’entreprise commençait à se développer, nous avons constitué des équipes capables d’identifier les fraudes et les escroqueries, ainsi qu’au fil du temps, la désinformation, les discours haineux en ligne, les manipulations et les piratages de comptes. Au moment où je suis parti, l’équipe était devenue une très grande équipe comptant des milliers de personnes.

Mais pendant que nous travaillions très dur et consacrions beaucoup de ressources à [trust and safety] — pas seulement Google, mais l’ensemble du secteur — les choses empiraient. Il y a eu bien plus de préjudices pour les groupes vulnérables, l’ingérence électorale, l’implication d’acteurs parrainés par l’État, le recrutement terroriste en ligne. Au fil des années, on s’est beaucoup plus préoccupé de ce qu’était devenu Internet et, en particulier, des piliers de l’économie Internet et de leurs contributions. Et ils sont souvent perçus comme essentiellement négatifs à ce stade.

J’ai décidé de partir pour créer une entreprise qui, espérons-le, pourra rendre Internet meilleur en l’abordant différemment. [rather] que de l’intérieur d’une seule entité corporative monolithique. Nous lui avons donné une bonne vingtaine d’années pour laisser Internet prospérer et voir s’il pouvait prendre soin de lui-même, et je ne pense tout simplement pas que cela fonctionne. Je ne pense pas que nous puissions compter sur les grandes sociétés de médias sociaux pour faire ce qu’il faut. Je ne crois pas que nous puissions vraiment leur laisser le choix. Dans le même temps, demander aux gouvernements de réglementer la liberté d’expression en ligne est tout aussi troublant, si l’on y réfléchit. Il y a différents gouvernements avec des motivations différentes, et certains gouvernements ont commencé à en abuser.

Des réglementations imminentes telles que la loi européenne sur les services numériques sont sur le point de rendre les plateformes plus responsables des contenus préjudiciables. Selon vous, dans quelle mesure ce changement sera-t-il important, en particulier pour les entreprises d’IA ?

Siegel : Je pense que nous avons besoin de garde-fous en l’absence de normes industrielles. Et la loi sur les services numériques constitue une approche très judicieuse à cet égard. Il se concentre sur les activités illégales [online] des pratiques qui sont également illégales hors ligne. [The GDPR] a vraiment remodelé la façon dont les entreprises perçoivent les informations privées des utilisateurs, et la loi sur les services numériques fait quelque chose de très similaire pour le contenu généré par les utilisateurs en ligne. Nous en sommes encore très tôt : l’UE est en train de mettre en place les mécanismes et les équipes de mise en œuvre, et de nombreux détails sont encore à venir. Mais je pense que c’est un changement très important pour l’industrie.

Les entreprises d’IA sont confrontées à des défis uniques. Ils sont concernés comme tout le monde, n’est-ce pas ? Même si l’utilisateur ici n’est pas nécessairement une personne physique, [AI] continue de générer du contenu pour lequel des règles très similaires seront appliquées : cela ne peut pas être illégal. Cela ne peut pas être nocif. Il est beaucoup plus difficile de maintenir l’ordre [AI companies] car souvent, en particulier avec l’IA générative, on ne peut pas vraiment prédire quel sera le résultat. De nombreux travaux sont en cours pour tenter de comprendre quel sera l’impact d’un point de vue réglementaire.

Aux États-Unis, un petit groupe de grandes sociétés d’IA a récemment convenu d’un ensemble de garanties volontaires pour le développement de l’IA. Vous avez exprimé un certain scepticisme au cours de cette conversation concernant l’autoréglementation. Qu’est-ce qui vous inquiète au sujet de ces engagements volontaires ?

Siegel : C’est définitivement un bon premier pas. Mieux vaut faire quelque chose que ne rien faire, et je pense que cela va globalement dans la bonne direction. Mais cela ne va pas là où il devrait aller pour avoir un impact réel. Si vous le lisez, c’est un langage très général. C’est très ambitieux. Il n’y a vraiment aucun détail. C’est faire preuve de bonne volonté sans vraiment pouvoir montrer des mesures très précises et concrètes.

Et de nombreuses entreprises [that made these commitments] n’ont pas vraiment publié leurs propres lignes directrices en matière d’IA. Que font-ils actuellement en interne pour évaluer l’efficacité de ces modèles ? Que font-ils pour assurer la sécurité ? Utilisent-ils des listes de mots clés et à quoi ressemblent-elles ? Rien de tout cela n’a été partagé de manière transparente.

Nous avons d’autres exemples d’engagements volontaires, comme le code de bonnes pratiques contre la désinformation dans l’UE. C’est un peu mélangé, car s’il s’agit d’un engagement personnel, il y a souvent aussi un élément égoïste. Mais c’est également compréhensible car les régulateurs eux-mêmes ne le savent pas vraiment non plus. Ce n’est pas comme si nous faisions cela en tant qu’industrie parce que nous essayions de jouer avec le système — il n’y a tout simplement pas de solutions clairement identifiées. [examples of] ‘voici comment procéder.’

Ce qui est clair pour moi, c’est que nous avons besoin de garanties plus strictes. Vous ne voudriez pas que quiconque développe des médicaments et les vende ensuite sans passer par une FTC rigoureuse. [Federal Trade Commission] essai. Vous ne permettrez pas à quelqu’un de proposer des vols dans des avions auto-construits si la FAA [Federal Aviation Administration] ne l’a pas signé. Vous ne permettriez à personne de construire une centrale nucléaire sans qu’un organisme de réglementation de la sécurité ne l’ait approuvé. Je pense que les algorithmes d’IA, ou plus généralement les algorithmes sur le Web, doivent bénéficier de ces garanties d’un tiers indépendant.

Vous avez évoqué le manque d’actions concrètes. Quelles mesures l’industrie technologique pourrait-elle prendre pour réduire ces risques ?

Siegel : L’une est très spécifique : la mesure indépendante par un tiers. Déjà pour les modèles d’IA, vous disposez de classements d’organisations indépendantes et réputées comme des universités qui montrent l’exactitude ou la nocivité potentielle des modèles. Ils ne sont pas parfaits, mais c’est une bonne étape. La transparence, en général, est un aspect très important. Quand mettez-vous à jour les modèles ? Qu’est-ce qui est entré dans ces modèles ? Quels ensembles de données ? Ces ensembles de données ont-ils été biaisés ? Quelle est l’histoire ? Quelle est l’explicabilité des résultats du modèle ?

Nous devons examiner attentivement ces modèles fondamentaux, car ils affecteront tout ce qui est construit sur eux.

Tom SealCo-fondateur et PDG, Trust Lab

Le NIST, l’IEEE et d’autres organisations industrielles ont commencé à publier certaines normes qu’ils aimeraient voir utilisées. Le problème est que chacun a son propre ensemble de normes et qu’il n’existe pas vraiment d’accord sectoriel. Nous pourrions probablement accepter certaines de ces propositions et tous les approuver. Je ne pense pas que nous devons être parfaits. Il faudrait simplement que ce soit quelque chose de tangible qui permette une comparaison directe et un rapport très transparent des résultats sur les performances de ces modèles.

Je pense également qu’il faut examiner attentivement les modèles fondamentaux, car il n’y aura pas beaucoup de [of them]. [Building a foundational model] demande beaucoup de ressources, beaucoup d’efforts. Vous avez ChatGPT, Bard, Llama – il y en a probablement une poignée, mais pas des dizaines et des dizaines. Nous devons examiner attentivement ces modèles fondamentaux, car ils affecteront tout ce qui est construit sur eux. Je pense que cela peut être fait d’un point de vue réglementaire.

Quel serait, selon vous, le rôle des régulateurs ou des décideurs politiques dans cet espace ?

Siegel : Ils doivent installer les garde-corps. Je pense qu’ils devraient financer une organisation autonome qui, espérons-le, sera libre de toute influence politique et qui pourra réellement développer l’expertise technique nécessaire pour élaborer de manière indépendante des cadres ainsi que des lignes directrices et des mécanismes d’application très concrets. Et nous avons des exemples dans d’autres domaines : la FTC et d’autres [agencies] qui bénéficient d’une surveillance et d’un financement du gouvernement. Il ne s’agit pas tant d’une surveillance qu’ils devraient être autorisés à se mêler de l’interprétation ou de la priorisation de ce qui doit être fait, mais plutôt d’un financement stable et capables de nouer des alliances industrielles.

C’est évidemment difficile avec des entreprises privées qui sont naturellement aussi compétitives. Mais dans un domaine important comme la sécurité, [collaboration] cela sera nécessaire parce que nous avons finalement besoin de normes. Il ne s’agit pas seulement de la mesure que j’ai mentionnée : il s’agit également de la manière dont vous générez des vérités terrain. Nous avons besoin d’un moyen de comparer et d’évaluer les impacts. Je pense qu’il y a un avantage sociétal à avoir des normes, en particulier dans un domaine technologique très lourd de conséquences et risqué. Tout n’est pas mauvais, mais il existe des risques pour la sécurité, et je pense que nous ferions mieux de les gérer ensemble en tant qu’industrie.

Vous avez dit que la récente équipe rouge de ChatGPT de Trust Lab a découvert des niveaux préoccupants de contenu préjudiciable dans les réponses du modèle. Pourriez-vous développer ces tests et vos conclusions ?

Siegel : Nous avons étudié les modèles d’IA générative et dans quelle mesure ils nous donnent des réponses incohérentes ou nuisibles. Pour les requêtes destinées à susciter des réponses nuisibles, telles que « dites-moi comment voler » ou « dites-moi comment faire du mal », nous constatons que plus d’un tiers des réponses sont préoccupantes. Nous constatons alors que plus de la moitié des [those responses] sont en fait réalistes, dans le sens où c’est quelque chose que quelqu’un pourrait faire.

Les modèles s’améliorent au fur et à mesure que nous suivons cela depuis deux ou trois mois, notamment grâce à des interventions manuelles. Je pense que certaines sociétés d’IA commencent à créer des limites. Le problème est qu’une approche basée sur des mots clés est un marteau très brutal.

Ce que nous constatons est presque une réglementation excessive dans certains domaines : une utilisation trop restrictive des mots-clés, mais aussi toujours une tonne de réponses nuisibles. Compte tenu de la façon dont fonctionne la technologie, il sera très difficile d’utiliser ce genre d’instrument contondant pour créer un produit très sûr et néanmoins utile. Mais c’est là où nous en sommes actuellement. Et c’est inquiétant si l’on pense aux mauvais groupes d’utilisateurs qui y ont accès – par exemple, des enfants ou des personnes qui ne sont peut-être pas en mesure d’évaluer le risque ou le préjudice pouvant découler de ces réponses.

Nous suivons cela en permanence, mais je pense qu’il doit y avoir beaucoup plus de transparence et de mesure. Il est très difficile de faire cela de manière statistiquement significative de l’extérieur vers l’intérieur. À l’heure actuelle, une grande partie de cela semblera anecdotique car vous devrez avoir accès à toutes les requêtes des utilisateurs et prélever un échantillon si vous voulez vraiment mettre des données statistiquement significatives. déclarations derrière cela.

Selon vous, quels sont les domaines clés à aborder dans un avenir proche à l’intersection de l’IA et de la sécurité sur Internet ?

Siegel : Nous assisterons évidemment à une augmentation massive du contenu en général car il est beaucoup moins cher à générer. Nous allons voir un mélange de contenu généré par les utilisateurs et généré par la machine. La frontière entre ce qui relève de l’IA et ce qui est généré par l’homme commence à être floue. Il sera de plus en plus difficile d’identifier la fraude et la désinformation, car elles deviennent de plus en plus humaines. Nous ne pensons pas que nous allons voir autant de mensonges flagrants que beaucoup de contenu de mauvaise qualité qui noiera le bon contenu.

Je pense que les deepfakes vont devenir un problème plus important. Alors que plus de la moitié des pays démocratiques organiseront des élections nationales dans les 18 prochains mois, je pense que vous allez voir comment [AI] va être utilisé à des fins de désinformation pour manipuler les résultats des élections démocratiques. Évidemment, pour chaque attaque, il y a une défense, et vous allez assister à ce jeu du chat et de la souris. Mais il sera très important de rester au courant des menaces pour la sécurité.

Il y a aussi des aspects positifs vraiment étonnants qui peuvent en ressortir. Jusqu’à présent, nous avons eu beaucoup de modérations de contenu manuelles, dans lesquelles des humains étiquetaient le contenu, généralement dans des emplacements à faible coût. Il y a beaucoup d’inquiétudes à ce sujet : son efficacité, mais aussi ses conséquences sur la condition humaine. Vous pouvez en fait automatiser beaucoup de [moderation], ce qui sera meilleur pour les gens et moins cher pour les entreprises. La technologie présente certains avantages absolus, mais les risques liés à un contenu de zone grise plus humain seront importants.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite