Glossaire de l'Intelligence Artificielle pour comprendre l'IA

Points clés
- Plus de 80 % des dirigeants ne maîtrisent pas le vocabulaire IA fondamental, selon une étude IBM 2026.
- 50+ termes essentiels structurent l'écosystème IA en 2026 : LLM, RAG, agent, MoE, fine-tuning, prompt engineering, etc.
- Le vocabulaire évolue vite : RAG, MoE et agentic AI sont devenus mainstream en 18 mois.
- Comprendre ces termes améliore les choix d'outils, de fournisseurs et la conformité (AI Act).
- Glossaire structuré ici en 7 sections : modèles, architecture, entraînement, inférence, données, gouvernance, applications.
Maîtriser le vocabulaire de l'intelligence artificielle est devenu une compétence professionnelle de base en 2026. Selon une étude IBM, plus de 80 % des dirigeants ne maîtrisent pas la terminologie fondamentale. Ce glossaire structuré liste 50+ termes essentiels — du LLM au RAG en passant par l'agentic AI, le fine-tuning et le watermarking. Il vous donne le langage commun pour choisir vos outils, dialoguer avec vos prestataires et naviguer dans la régulation.
Le vocabulaire de l'IA s'est structuré rapidement entre 2022 et 2026 autour de 7 grandes familles. Les modèles (LLM, SLM, VLM, MoE, multimodal) décrivent les architectures qui prédisent du texte, de l'image, du son ou de la vidéo. L'architecture précise les briques techniques (transformer, attention, embeddings, tokens). L'entraînement couvre pretraining, fine-tuning, RLHF, DPO. L'inférence distingue les modes (zero-shot, few-shot, chain-of-thought). Les données intègrent les notions de jeu d'entraînement, RAG, vector store, embedding. La gouvernance regroupe AI Act, RGPD, watermarking, audit, biais. Les applications nomment agents, copilots, chatbots, assistants. Selon les analyses 2026 d'IBM et de Google Cloud, ce vocabulaire évolue rapidement : RAG, MoE et agentic AI sont devenus mainstream en 18 mois. Comprendre ces termes n'est plus une option pour qui pilote un projet IA, contracte un fournisseur ou rédige une politique d'usage interne.
1. Les types de modèles
- IA (Intelligence Artificielle) : ensemble des techniques permettant à une machine d'imiter ou augmenter des fonctions humaines (perception, raisonnement, langage). Voir notre définition complète de l'IA.
- Machine Learning (ML) : sous-discipline de l'IA où la machine apprend à partir des données.
- Deep Learning : ML reposant sur des réseaux neuronaux profonds.
- LLM (Large Language Model) : modèle de langage entraîné sur des milliards de tokens (GPT-4o, Claude, Gemini, Qwen).
- SLM (Small Language Model) : modèle compact (moins de 10 Mds de paramètres) optimisé pour la latence et le coût (Phi-3, Mistral 7B).
- VLM (Vision Language Model) : modèle multimodal traitant texte et image.
- Modèle multimodal : capable de traiter plusieurs entrées (texte, image, audio, vidéo).
- MoE (Mixture of Experts) : architecture qui n'active qu'une partie des paramètres par requête (utilisée par Qwen 2.5, Mixtral, GPT-4).
- Foundation model : modèle généraliste pré-entraîné, base d'applications spécialisées.
2. Architecture et concepts techniques
- Transformer : architecture introduite en 2017 ("Attention is All You Need"), socle de tous les LLM modernes.
- Attention : mécanisme qui permet au modèle de pondérer l'importance des mots du contexte.
- Embedding : représentation vectorielle dense d'un mot, phrase ou document.
- Token : unité élémentaire traitée par un LLM (sous-mot).
- Context window : nombre maximum de tokens en entrée (Claude 3.5 jusqu'à 200K, Gemini 2 jusqu'à 2M).
- Paramètres : valeurs ajustables d'un modèle. GPT-4 estimé à plus de 1 000 milliards.
3. Entraînement et adaptation
- Pretraining : phase initiale d'apprentissage non supervisé sur de grands corpus.
- Fine-tuning : adaptation supervisée à une tâche spécifique.
- RLHF (Reinforcement Learning from Human Feedback) : alignement par évaluation humaine.
- DPO (Direct Preference Optimization) : alternative au RLHF, plus simple à entraîner.
- SFT (Supervised Fine-Tuning) : fine-tuning à partir de paires question/réponse.
- Distillation : transfert de connaissance d'un grand modèle vers un plus petit.
- Quantization : compression d'un modèle pour le faire tourner sur du matériel modeste.
4. Inférence et utilisation
- Prompt : instruction donnée à un modèle. Voir notre guide sur les prompts.
- Prompt engineering : art de formuler des prompts efficaces.
- Zero-shot : usage du modèle sans exemple.
- Few-shot : usage avec quelques exemples dans le prompt.
- Chain-of-thought (CoT) : prompt qui demande au modèle d'expliciter son raisonnement.
- System prompt : instruction de cadrage au-dessus du prompt utilisateur.
- Hallucination : sortie inventée mais présentée comme factuelle.
- Température : paramètre contrôlant l'aléa des sorties (0 = déterministe).
5. Données et RAG
- RAG (Retrieval-Augmented Generation) : combinaison d'un LLM et d'une base de connaissances pour grounder les réponses.
- Vector store / Vector DB : base de données stockant des embeddings (Pinecone, Weaviate, Qdrant, pgvector).
- Embedding model : modèle qui transforme texte en vecteur (OpenAI Ada, Cohere Embed).
- Chunking : découpage d'un document en passages digestibles par un LLM.
- Knowledge graph : représentation structurée des relations entre entités.
- Synthetic data : données générées par IA pour entraîner d'autres modèles.
6. Gouvernance, sécurité et conformité
- AI Act : règlement européen sur l'IA, applicable progressivement depuis 2025.
- RGPD : règlement général sur la protection des données (UE).
- Watermarking IA : marqueur invisible dans les sorties IA pour les détecter.
- Biais algorithmique : reproduction de discriminations présentes dans les données.
- Explainability (XAI) : capacité à expliquer une décision IA.
- Red-teaming : test offensif pour identifier les vulnérabilités d'un modèle.
- Jailbreak : contournement des règles de sécurité d'un LLM.
- Prompt injection : attaque qui détourne un modèle via du texte malicieux.
7. Applications et écosystème
- Chatbot : assistant conversationnel basé sur LLM.
- Copilot : assistant IA intégré à un outil (Microsoft Copilot, GitHub Copilot).
- Agent IA : programme autonome qui exécute des actions multi-étapes.
- Agentic AI : ensemble de techniques pour bâtir des agents (planning, mémoire, outils).
- Multi-agent : plusieurs agents collaborant pour une tâche.
- Function calling / tool use : capacité d'un LLM à appeler des fonctions externes.
- MCP (Model Context Protocol) : standard d'Anthropic pour relier LLMs et outils.
- Diffusion model : architecture pour générer images et vidéos (Stable Diffusion, Imagen).
- NeRF / Gaussian Splatting : techniques de reconstruction 3D photoréaliste.
- TTS (Text-To-Speech) et STT (Speech-To-Text) : conversion texte ↔ voix.
- OCR : reconnaissance optique de caractères.
Termes spécifiques 2026
- GEO (Generative Engine Optimization) : optimisation de contenus pour les LLM. Voir notre guide GEO.
- AEO (AI Engine Optimization) : sous-discipline focalisée sur les citations dans les moteurs IA.
- llms.txt : fichier à la racine d'un site pour orienter les LLM (équivalent robots.txt).
- Reasoning model : famille de modèles entraînés à raisonner étape par étape (o1, Claude 3.5 Sonnet, Gemini 2 Thinking).
- Test-time compute : augmentation des ressources pendant l'inférence pour améliorer les sorties.
- Mixture of Experts (MoE) : voir section 1.
- Multimodal interleaving : capacité à mélanger texte/image/audio dans une même réponse.
Termes économiques et métiers
- Inference cost : coût par token généré.
- API call : appel programmatique à un service IA.
- SaaS IA : service IA distribué en SaaS.
- Open weight : modèles dont les poids sont publiés (Llama, Mistral, Qwen).
- Closed model : modèles propriétaires (GPT, Claude).
- BYOM (Bring Your Own Model) : déploiement d'un modèle propre via une plateforme tierce.
Conclusion
Maîtriser ce glossaire en 2026, c'est s'équiper du langage commun de l'IA pour piloter, contracter, décider. Pour explorer les outils d'automatisation et la catégorie LLM de lacreme.ai, parcourez nos sections dédiées. Voir aussi notre définition de l'IA et notre guide sur les prompts.
Questions fréquentes
Qu'est-ce qu'un glossaire de l'intelligence artificielle ?
Un glossaire de l'intelligence artificielle est une référence structurée des termes techniques utilisés dans le domaine de l'IA : modèles (LLM, SLM, VLM, MoE), architecture (transformer, attention, embeddings, tokens), entraînement (pretraining, fine-tuning, RLHF, DPO), inférence (zero-shot, chain-of-thought), données (RAG, vector store), gouvernance (AI Act, RGPD, watermarking) et applications (agents, copilots, MCP). En 2026, plus de 80 % des dirigeants ne maîtrisent pas ce vocabulaire fondamental selon une étude IBM.
Comment choisir les termes IA importants à connaître ?
Tout dépend du rôle. Pour un dirigeant : LLM, RAG, agent, AI Act, biais, hallucination, GEO. Pour un développeur : transformer, attention, embeddings, fine-tuning, RLHF, tool use, MCP, function calling. Pour un marketeur : prompt engineering, GEO, AEO, multimodal, copilot. Pour un juriste : AI Act, biais, explicabilité, watermarking, droits d'auteur. Le vocabulaire évolue vite : RAG, MoE et agentic AI sont devenus mainstream en 18 mois. Tenir à jour son lexique est désormais une compétence pro.
Un glossaire de l'IA vaut-il le coup en 2026 ?
Oui, c'est devenu une nécessité professionnelle. Sans le vocabulaire commun, impossible de dialoguer avec ses prestataires, choisir ses outils, négocier ses contrats, ou se conformer à la régulation (AI Act, RGPD). Selon IBM, plus de 80 % des dirigeants ne maîtrisent pas la terminologie fondamentale — c'est un angle mort majeur. Les compétences IA octroient une prime salariale de 56 % selon le WEF : maîtriser le langage est la première étape. Un bon glossaire structuré, mis à jour tous les 6 mois, suffit pour rester opérationnel.
