La mise à jour Google montre comment Bard AI peut fonctionner avec votre application de messages
Les chercheurs viennent de dévoiler une pré-version d’une mise à niveau révolutionnaire de l’IA pour Google Messages. Mais c’est un risque sérieux pour la vie privée : il semble que Bard puisse demander à lire et à analyser l’historique de vos messages privés. Alors, comment cela pourrait-il fonctionner, comment préserver votre vie privée et quand cela pourrait-il commencer.
Mise à jour du 29/01 ci-dessous, cet article a été initialement publié le 27/01.
Il y a un enthousiasme compréhensible à l’idée que Google amène Bard dans Messages. Une interface utilisateur de type ChatGPT prête à l’emploi pour une base d’utilisateurs prête à l’emploi de plusieurs centaines de millions. Il s’agit d’un assistant IA, explique Bards Chat lorsqu’on lui demande, qui peut améliorer votre expérience de messagerie en facilitant la communication, en améliorant la créativité et en fournissant des informations. Ce sera votre assistant IA personnel dans votre application de messagerie.
Mais le chat Bards reconnaît également qu’il peut vous être demandé d’analyser vos messages pour comprendre le contexte de vos conversations, votre ton et vos intérêts. Il peut analyser le sentiment des messages, pour adapter ses réponses à votre humeur et à votre ambiance. Et il peut analyser l’historique de vos messages avec différents contacts pour comprendre la dynamique de votre relation afin de personnaliser les réponses en fonction de la personne à qui vous parlez.
Et voici donc le prochain champ de bataille en matière de confidentialité pour les propriétaires de smartphones qui doivent encore composer avec les autorisations des applications, les étiquettes de confidentialité et la transparence du suivi, et avec tous ces scandales d’écoute par l’assistant vocal IA encore frais dans la mémoire. Le défi de Google sera de convaincre les utilisateurs que cela n’ouvre pas la porte au même genre de cauchemars en matière de confidentialité que nous avons vu auparavant, où le contenu des utilisateurs et les plateformes d’IA se rencontrent.
Il y aura un autre problème de confidentialité, moins controversé, avec vos demandes de messages à Bard. Ceux-ci seront envoyés vers le cloud pour traitement, utilisés pour la formation et peut-être vus par des humains, bien que anonymes. Ces données seront stockées pendant 18 mois et persisteront pendant quelques jours même si vous désactivez l’IA, bien qu’une suppression manuelle soit disponible.
De telles demandes ne relèvent pas du nouveau cryptage de bout en bout par défaut de Google Messages. Vous envoyez littéralement des messages à Google lui-même. Bien que cela ne soit pas controversé, cela vaut la peine de le garder à l’esprit. Comme pour tous les chatbots génératifs d’IA, y compris ChatGPT, vous devez supposer que tout ce que vous demandez n’est pas privé et pourrait je reviens te hanter.
Mais l’analyse des messages est différente. Il s’agit d’un contenu qui relève (maintenant) de ce bouclier de cryptage de bout en bout, dans un monde où une telle messagerie privée est la nouvelle norme. Ici, l’idéal serait le traitement de l’IA sur l’appareil, avec des données ne quittant jamais votre téléphone, plutôt que le contenu téléchargé sur le cloud, où davantage de traitement peut être mis à profit.
C’est là que le champ de bataille Android contre iPhone pourrait bien entrer en jeu. Historiquement, Apple a été beaucoup plus fort en matière d’analyse sur appareil que Google, qui a opté par défaut pour le cloud pour analyser le contenu des utilisateurs.
Apple augmente tranquillement ses capacités, Vol a rapporté cette semaine, pour amener l’IA à sa prochaine génération d’iPhone, l’objectif d’Apple semble être d’exploiter l’IA générative via des appareils mobiles, pour permettre aux chatbots et aux applications d’IA de fonctionner sur le matériel et les logiciels du téléphone plutôt que d’être alimentés par des services cloud dans les centres de données. .
Mise à jour du 29/01 :
La dernière mise à jour sur les efforts d’Apple pour introduire l’IA générative dans iOS suggère que son intention de tout conserver sur l’appareil n’est peut-être pas aussi ferme que prévu.
Code vient d’être découvert par 9à5Mac dans la nouvelle version bêta d’iOS 17.4 dresse un tableau des progrès réalisés. Apple continue de travailler sur une nouvelle version de Siri basée sur la technologie des grands modèles de langage, avec un peu d’aide d’autres sources.
Comme Bloomberg Mark Gurman a souligné l’automne dernier qu’Apple était largement resté à l’écart lorsque ChatGPT d’OpenAI a décollé comme une fusée. Il a regardé Google et Microsoft déployer des versions d’IA générative de leurs moteurs de recherche. La seule version d’IA remarquable d’Apple était un système de correction automatique amélioré dans iOS 17.
Il n’est donc pas surprenant que l’une des sources qui aident Apple, selon 9to5Mac, soit ChatGPT. Apple semble utiliser l’API ChatGPT d’OpenAI pour des tests internes afin d’aider au développement de ses propres modèles d’IA.
Selon 9to5Mac, le code iOS 17.4 suggère qu’Apple teste quatre modèles d’IA différents. Cela comprend deux versions de [Apples internal model] AjaxGPT, dont un qui est traité sur l’appareil et un qui ne l’est pas. Apple vérifie apparemment les résultats de ses propres modèles d’IA par rapport à ChatGPT, inclut une interface iMessage dans le cadre de cela, et tout n’est pas intégré à l’appareil.
Le problème pour Apple est que la configuration de Google se prête à l’architecture Edge/Cloud plus performante qui pilote l’IA générative comme ChatGPT. Des assurances ont été données que l’analyse du contenu des messages se fera uniquement sur l’appareil, mais la réalité est que des millions d’utilisateurs feront pression pour de nouvelles fonctionnalités et sacrifieront volontiers des thèmes de confidentialité opaques qui ne sont pas faciles à comprendre dans le processus.
Cela met Apple dans une impasse. La philosophie de ce qui se passe sur votre iPhone reste sur votre iPhone est profondément enracinée. La réalité, cependant, est qu’il y aura des limites quant au traitement de l’IA disponible en périphérie par rapport au cloud, qui seront déterminées par les progrès du traitement, les coûts du matériel, la durée de vie de la batterie, la chaleur et les limitations générales de fonctionnement.
Gurman affirme qu’iOS 18 est considéré au sein de l’entreprise comme l’une des plus grandes mises à jour iOS, sinon la plus importante de l’histoire de l’entreprise. Il souligne le débat en cours [within Apple] sur la façon de déployer l’IA générative : sous la forme d’une expérience entièrement sur l’appareil, d’une configuration basée sur le cloud ou quelque chose entre les deux. Une approche sur appareil fonctionnerait plus rapidement et contribuerait à protéger la confidentialité, mais le déploiement des LLM d’Apple via le cloud permettrait des opérations plus avancées.
Cette décision sur l’endroit où le traitement de l’IA a lieu pourrait être le plus grand bouleversement des principes de confidentialité d’Apple. Apple contrôle l’intégralité de son écosystème et peut donc modifier la physique comme d’autres ne le peuvent pas. Mais il s’agit là d’un tout nouveau niveau de complexité.
Lorsque Apple commencera à présenter l’intégration de l’IA dans iMessage, nous verrons comment réagiront les utilisateurs les plus vocaux et axés sur la confidentialité. La vive réaction suscitée par l’analyse CSAM proposée a illustré à quel point cela pourrait devenir litigieux si Apple reproduisait l’analyse du contenu de Bards sous une forme ou une autre. Et donc je ne pense pas voir cela de si tôt, l’accent initial étant mis sur les demandes et l’assistance de type Siri.
Pour sa part, un porte-parole de Google m’a assuré qu’à mesure que nous continuons à développer Bard à travers les produits et services Google, nous conserverons toujours ces principes fondamentaux : Bard demandera toujours aux utilisateurs un consentement clair et des notifications d’utilisation des données avant d’accéder à leurs données personnelles pour la première fois. temps.
Vous devrez juger si les assurances données vous apportent suffisamment de réconfort pour laisser Bard se déchaîner sur votre contenu privé.
Un mot d’avertissement. Il y a une différence entre quoi peutpas à faire, comme violer le chiffrement de bout en bout, et quoi n’est-ce pas en cours, comme les politiques quant au lieu où l’analyse du contenu a lieu. Je vous invite à faire preuve d’une grande prudence quant à l’ouverture trop libre de votre contenu, à moins et jusqu’à ce que nous ayons mis en place des garanties appropriées.
Le chat des bardes dit la même chose. Bien que Google assure une analyse sur l’appareil, toutes les données consultées par Bard sont techniquement collectées, même temporairement. Des inquiétudes surgissent concernant les fuites potentielles, les utilisations abusives ou les pratiques cachées de partage de données. L’étendue de l’analyse de Bard et la manière dont elle utilise vos données doivent être transparentes. Les utilisateurs méritent un contrôle granulaire sur les données analysées, à quelles fins et pendant combien de temps elles sont stockées.
Ce qui se passera cette année définira le paysage bien plus que tout ce que nous avons vu jusqu’à présent. Google et Apple considèrent tous deux leurs applications de messagerie comme principales interfaces utilisateur pour les capacités d’IA générative, ce qui suggère que cela va vraiment changer la donne.
Cette intégration du chat et de la messagerie génératifs d’IA transformera à jamais les plateformes de textos, elle ouvrira rapidement un nouvel angle de concurrence entre Google, Apple et Meta, dont les écosystèmes et applications de smartphones dirigent nos vies.
Bien qu’une date exacte soit encore inconnue, a déclaré le chat Bards lorsqu’on lui a demandé, tous les signes indiquent l’arrivée de Bard dans Google Messages dans le courant de 2024. Cela pourrait être une question de semaines ou de mois, mais cela arrive certainement. Pendant ce temps, ce que nous avons vu jusqu’à présent reste enfoui profondément dans une version bêta et sujet à changement avant la sortie.
Si et quand il sera en ligne, réfléchissez bien avant de déverrouiller les paramètres de confidentialité de vos messages. En fin de compte, dit Bards Chat, la décision d’utiliser ou non l’analyse des messages vous appartient. Pesez soigneusement les avantages potentiels par rapport aux problèmes de confidentialité et faites un choix éclairé en fonction de votre propre niveau de confort.
L’analyse de l’historique de vos messages n’est pas le seul débat sur la confidentialité ici. Le déploiement de Bard par Google n’est qu’une partie du passage de la recherche basée sur un navigateur à la recherche dirigée, et vous devrez être de plus en plus prudent quant à la qualité des résultats qui vous sont fournis. Bard n’est pas une conversation avec un ami. Il s’agit d’une interface utilisateur située sur la machine de publicité et de suivi la plus puissante et la plus précieuse au monde.
Sur cette note, le chat Bards m’a laissé une dernière pensée qui pourrait être mieux adressée à ses créateurs qu’à ses utilisateurs : n’oubliez pas que vous avez le droit d’exiger de la clarté, du contrôle et un développement responsable de l’IA de la part des entreprises en qui vous confiez vos données.
Suivez-moi sur Twitter ou LinkedIn.