Glossaire ChatGPT : 41 termes d’IA que tout le monde devrait connaître

ChatGPT, le chatbot IA d’OpenAI, qui a une étrange capacité à répondre à n’importe quelle question, a probablement été votre première introduction à l’IA. Qu’il s’agisse d’écrire des poèmes, des CV et des recettes de fusion, la puissance de ChatGPT a été comparée à saisie semi-automatique sous stéroïdes.

Mais Chatbots IA ne sont qu’une partie du paysage de l’IA. Bien sûr, demander à ChatGPT de vous aider à faire vos devoirs ou demander à Midjourney de créer des images fascinantes de robots en fonction de leur pays d’origine est cool, mais son potentiel pourrait complètement remodeler les économies. Ce potentiel pourrait représenter 4 400 milliards de dollars par an pour l’économie mondiale, selon le McKinsey Global Institute. C’est pourquoi vous devriez vous attendre à entendre de plus en plus parler d’intelligence artificielle.

À mesure que les gens s’habituent à un monde étroitement lié à l’IA, de nouveaux termes apparaissent partout. Alors, que vous essayiez de paraître intelligent autour d’un verre ou d’impressionner lors d’un entretien d’embauche, voici quelques termes importants en matière d’IA que vous devriez connaître.

Ce glossaire sera continuellement mis à jour.

Intelligence générale artificielle, ou AGI: Un concept qui suggère une version de l’IA plus avancée que celle que nous connaissons aujourd’hui, capable d’effectuer des tâches bien mieux que les humains tout en enseignant et en faisant progresser ses propres capacités.

Éthique de l’IA: Principes visant à empêcher l’IA de nuire aux humains, obtenus grâce à des moyens tels que la détermination de la manière dont les systèmes d’IA doivent collecter des données ou gérer les biais.

Sécurité de l’IA: Un domaine interdisciplinaire qui s’intéresse aux impacts à long terme de l’IA et à la manière dont elle pourrait soudainement évoluer vers une super intelligence qui pourrait être hostile aux humains.

Algorithme: Série d’instructions qui permettent à un programme informatique d’apprendre et d’analyser des données d’une manière particulière, par exemple en reconnaissant des modèles, pour ensuite en tirer des leçons et accomplir des tâches par lui-même.

Alignement: peaufiner une IA pour mieux produire le résultat souhaité. Cela peut faire référence à tout, de la modération du contenu au maintien d’interactions positives avec les humains.

Anthropomorphisme: Quand les humains ont tendance à donner aux objets non humains des caractéristiques humaines. En IA, cela peut inclure de croire qu’un chatbot est plus humain et plus conscient qu’il ne l’est en réalité, comme croire qu’il est heureux, triste ou même complètement sensible.

Intelligence artificielle, ou IA: L’utilisation de la technologie pour simuler l’intelligence humaine, que ce soit dans des programmes informatiques ou en robotique. Un domaine de l’informatique qui vise à construire des systèmes capables d’effectuer des tâches humaines.

Biais: En ce qui concerne les grands modèles de langage, erreurs résultant des données d’entraînement. Cela peut conduire à attribuer faussement certaines caractéristiques à certaines races ou groupes sur la base de stéréotypes.

Chatbot: Un programme qui communique avec les humains à travers un texte qui simule le langage humain.

ChatGPT: Un chatbot IA développé par OpenAI qui utilise la technologie de grands modèles de langage.

Informatique cognitive: Un autre terme pour l’intelligence artificielle.

Augmentation des données: Remixer des données existantes ou ajouter un ensemble de données plus diversifié pour entraîner une IA.

L’apprentissage en profondeur: Une méthode d’IA et un sous-domaine de l’apprentissage automatique, qui utilise plusieurs paramètres pour reconnaître des modèles complexes dans les images, le son et le texte. Le processus s’inspire du cerveau humain et utilise des réseaux de neurones artificiels pour créer des modèles.

La diffusion: méthode d’apprentissage automatique qui prend une donnée existante, comme une photo, et y ajoute du bruit aléatoire. Les modèles de diffusion entraînent leurs réseaux à réorganiser ou à récupérer cette photo.

Comportement émergent: Lorsqu’un modèle d’IA présente des capacités involontaires.

Apprentissage de bout en bout, ou E2E: Processus d’apprentissage en profondeur dans lequel un modèle est invité à effectuer une tâche du début à la fin. Il n’est pas formé pour accomplir une tâche de manière séquentielle, mais apprend plutôt des entrées et la résout d’un seul coup.

Considérations éthiques: Une prise de conscience des implications éthiques de l’IA et des problèmes liés à la confidentialité, à l’utilisation des données, à l’équité, à l’utilisation abusive et à d’autres problèmes de sécurité.

Formulaire: Également connu sous le nom de décollage rapide ou de décollage dur. Le concept selon lequel si quelqu’un construit une AGI, il sera peut-être déjà trop tard pour sauver l’humanité.

Réseaux contradictoires génératifs, ou GAN: Un modèle d’IA génératif composé de deux réseaux de neurones pour générer de nouvelles données : un générateur et un discriminateur. Le générateur crée un nouveau contenu et le discriminateur vérifie s’il est authentique.

IA générative: Une technologie de génération de contenu qui utilise l’IA pour créer du texte, des vidéos, du code informatique ou des images. L’IA reçoit de grandes quantités de données d’entraînement, trouve des modèles pour générer ses propres réponses inédites, qui peuvent parfois être similaires au matériel source.

Google Barde: Un chatbot IA de Google qui fonctionne de manière similaire à ChatGPT mais extrait des informations du Web actuel, tandis que ChatGPT est limité aux données jusqu’en 2021 et n’est pas connecté à Internet.

Garde-corps: Politiques et restrictions imposées aux modèles d’IA pour garantir que les données sont traitées de manière responsable et que le modèle ne crée pas de contenu dérangeant.

Hallucination: Une réponse incorrecte de l’IA. Peut inclure une IA générative produisant des réponses incorrectes mais énoncées avec confiance comme si elles étaient correctes. Les raisons de cela ne sont pas entièrement connues. Par exemple, lorsque vous demandez à un chatbot IA : « Quand Léonard de Vinci a-t-il peint la Joconde ? il peut répondre par une déclaration incorrecte disant : « Léonard de Vinci a peint la Joconde en 1815 », soit 300 ans après qu’elle ait été réellement peinte.

Grand modèle de langage, ou LLM: Un modèle d’IA entraîné sur des quantités massives de données textuelles pour comprendre le langage et générer un nouveau contenu dans un langage de type humain.

Apprentissage automatique, ou ML: Un composant de l’IA qui permet aux ordinateurs d’apprendre et d’obtenir de meilleurs résultats prédictifs sans programmation explicite. Peut être couplé à des ensembles de formation pour générer du nouveau contenu.

MicrosoftBing: Un moteur de recherche de Microsoft qui peut désormais utiliser la technologie qui alimente ChatGPT pour fournir des résultats de recherche alimentés par l’IA. C’est similaire à Google Bard en termes de connexion à Internet.

IA multimodale: Un type d’IA capable de traiter plusieurs types d’entrées, notamment du texte, des images, des vidéos et de la parole.

Traitement du langage naturel: branche de l’IA qui utilise l’apprentissage automatique et l’apprentissage profond pour donner aux ordinateurs la capacité de comprendre le langage humain, souvent à l’aide d’algorithmes d’apprentissage, de modèles statistiques et de règles linguistiques.

Réseau neuronal: Un modèle informatique qui ressemble à la structure du cerveau humain et est destiné à reconnaître des modèles dans les données. Se compose de nœuds interconnectés, ou neurones, capables de reconnaître des modèles et d’apprendre au fil du temps.

Surapprentissage: Erreur dans l’apprentissage automatique où il fonctionne trop étroitement avec les données d’entraînement et peut n’être capable d’identifier que des exemples spécifiques dans lesdites données, mais pas de nouvelles données.

Paramètres: Valeurs numériques qui donnent la structure et le comportement du LLM, lui permettant de faire des prédictions.

Chaînage rapide: Une capacité de l’IA à utiliser les informations des interactions précédentes pour colorer les réponses futures.

Perroquet stochastique: Une analogie avec les LLM qui illustre que le logiciel n’a pas une plus grande compréhension de la signification du langage ou du monde qui l’entoure, aussi convaincant soit-il du résultat. L’expression fait référence à la façon dont un perroquet peut imiter des mots humains sans en comprendre le sens.

Transfert de style: La capacité d’adapter le style d’une image au contenu d’une autre, permettant à une IA d’interpréter les attributs visuels d’une image et de les utiliser sur une autre. Par exemple, prendre l’autoportrait de Rembrandt et le recréer à la manière de Picasso.

Température: Paramètres définis pour contrôler le degré d’aléatoire de la sortie d’un modèle de langage. Une température plus élevée signifie que le modèle prend plus de risques.

Génération de texte en image: Création d’images basées sur des descriptions textuelles.

Données d’entraînement: Les ensembles de données utilisés pour aider les modèles d’IA à apprendre, notamment du texte, des images, du code ou des données.

Modèle de transformateur: Une architecture de réseau neuronal et un modèle d’apprentissage en profondeur qui apprend le contexte en suivant les relations dans les données, comme dans les phrases ou les parties d’images. Ainsi, au lieu d’analyser une phrase mot par mot, il peut examiner la phrase entière et comprendre le contexte.

Test de Turing: Nommé d’après le célèbre mathématicien et informaticien Alan Turing, il teste la capacité d’une machine à se comporter comme un humain. La machine réussit si un humain ne peut pas distinguer la réponse de la machine de celle d’un autre humain.

IA faible, alias IA étroite: Une IA qui se concentre sur une tâche particulière et ne peut pas apprendre au-delà de ses compétences. La plupart des IA actuelles sont des IA faibles.

Apprentissage sans tir: Un test dans lequel un modèle doit effectuer une tâche sans recevoir les données de formation requises. Un exemple serait de reconnaître un lion tout en étant dressé uniquement sur des tigres.

Note de l’éditeur : CNET utilise un moteur d’IA pour créer certaines histoires. Pour en savoir plus, consultez cet article.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepteLire la suite