Glossar der Künstlichen Intelligenz zum Verständnis von KI

8 Min. Lesezeit
Glossaire de l'Intelligence Artificielle en bibliothèque moderne

Points clés

  • Plus de 80 % des dirigeants ne maîtrisent pas le vocabulaire IA fondamental, selon une étude IBM 2026.
  • 50+ termes essentiels structurent l'écosystème IA en 2026 : LLM, RAG, agent, MoE, fine-tuning, prompt engineering, etc.
  • Le vocabulaire évolue vite : RAG, MoE et agentic AI sont devenus mainstream en 18 mois.
  • Comprendre ces termes améliore les choix d'outils, de fournisseurs et la conformité (AI Act).
  • Glossaire structuré ici en 7 sections : modèles, architecture, entraînement, inférence, données, gouvernance, applications.

Maîtriser le vocabulaire de l'intelligence artificielle est devenu une compétence professionnelle de base en 2026. Selon une étude IBM, plus de 80 % des dirigeants ne maîtrisent pas la terminologie fondamentale. Ce glossaire structuré liste 50+ termes essentiels — du LLM au RAG en passant par l'agentic AI, le fine-tuning et le watermarking. Il vous donne le langage commun pour choisir vos outils, dialoguer avec vos prestataires et naviguer dans la régulation.

Le vocabulaire de l'IA s'est structuré rapidement entre 2022 et 2026 autour de 7 grandes familles. Les modèles (LLM, SLM, VLM, MoE, multimodal) décrivent les architectures qui prédisent du texte, de l'image, du son ou de la vidéo. L'architecture précise les briques techniques (transformer, attention, embeddings, tokens). L'entraînement couvre pretraining, fine-tuning, RLHF, DPO. L'inférence distingue les modes (zero-shot, few-shot, chain-of-thought). Les données intègrent les notions de jeu d'entraînement, RAG, vector store, embedding. La gouvernance regroupe AI Act, RGPD, watermarking, audit, biais. Les applications nomment agents, copilots, chatbots, assistants. Selon les analyses 2026 d'IBM et de Google Cloud, ce vocabulaire évolue rapidement : RAG, MoE et agentic AI sont devenus mainstream en 18 mois. Comprendre ces termes n'est plus une option pour qui pilote un projet IA, contracte un fournisseur ou rédige une politique d'usage interne.

1. Les types de modèles

  • IA (Intelligence Artificielle) : ensemble des techniques permettant à une machine d'imiter ou augmenter des fonctions humaines (perception, raisonnement, langage). Voir notre définition complète de l'IA.
  • Machine Learning (ML) : sous-discipline de l'IA où la machine apprend à partir des données.
  • Deep Learning : ML reposant sur des réseaux neuronaux profonds.
  • LLM (Large Language Model) : modèle de langage entraîné sur des milliards de tokens (GPT-4o, Claude, Gemini, Qwen).
  • SLM (Small Language Model) : modèle compact (moins de 10 Mds de paramètres) optimisé pour la latence et le coût (Phi-3, Mistral 7B).
  • VLM (Vision Language Model) : modèle multimodal traitant texte et image.
  • Modèle multimodal : capable de traiter plusieurs entrées (texte, image, audio, vidéo).
  • MoE (Mixture of Experts) : architecture qui n'active qu'une partie des paramètres par requête (utilisée par Qwen 2.5, Mixtral, GPT-4).
  • Foundation model : modèle généraliste pré-entraîné, base d'applications spécialisées.

2. Architecture et concepts techniques

  • Transformer : architecture introduite en 2017 ("Attention is All You Need"), socle de tous les LLM modernes.
  • Attention : mécanisme qui permet au modèle de pondérer l'importance des mots du contexte.
  • Embedding : représentation vectorielle dense d'un mot, phrase ou document.
  • Token : unité élémentaire traitée par un LLM (sous-mot).
  • Context window : nombre maximum de tokens en entrée (Claude 3.5 jusqu'à 200K, Gemini 2 jusqu'à 2M).
  • Paramètres : valeurs ajustables d'un modèle. GPT-4 estimé à plus de 1 000 milliards.

3. Entraînement et adaptation

  • Pretraining : phase initiale d'apprentissage non supervisé sur de grands corpus.
  • Fine-tuning : adaptation supervisée à une tâche spécifique.
  • RLHF (Reinforcement Learning from Human Feedback) : alignement par évaluation humaine.
  • DPO (Direct Preference Optimization) : alternative au RLHF, plus simple à entraîner.
  • SFT (Supervised Fine-Tuning) : fine-tuning à partir de paires question/réponse.
  • Distillation : transfert de connaissance d'un grand modèle vers un plus petit.
  • Quantization : compression d'un modèle pour le faire tourner sur du matériel modeste.

4. Inférence et utilisation

  • Prompt : instruction donnée à un modèle. Voir notre guide sur les prompts.
  • Prompt engineering : art de formuler des prompts efficaces.
  • Zero-shot : usage du modèle sans exemple.
  • Few-shot : usage avec quelques exemples dans le prompt.
  • Chain-of-thought (CoT) : prompt qui demande au modèle d'expliciter son raisonnement.
  • System prompt : instruction de cadrage au-dessus du prompt utilisateur.
  • Hallucination : sortie inventée mais présentée comme factuelle.
  • Température : paramètre contrôlant l'aléa des sorties (0 = déterministe).

5. Données et RAG

  • RAG (Retrieval-Augmented Generation) : combinaison d'un LLM et d'une base de connaissances pour grounder les réponses.
  • Vector store / Vector DB : base de données stockant des embeddings (Pinecone, Weaviate, Qdrant, pgvector).
  • Embedding model : modèle qui transforme texte en vecteur (OpenAI Ada, Cohere Embed).
  • Chunking : découpage d'un document en passages digestibles par un LLM.
  • Knowledge graph : représentation structurée des relations entre entités.
  • Synthetic data : données générées par IA pour entraîner d'autres modèles.

6. Gouvernance, sécurité et conformité

  • AI Act : règlement européen sur l'IA, applicable progressivement depuis 2025.
  • RGPD : règlement général sur la protection des données (UE).
  • Watermarking IA : marqueur invisible dans les sorties IA pour les détecter.
  • Biais algorithmique : reproduction de discriminations présentes dans les données.
  • Explainability (XAI) : capacité à expliquer une décision IA.
  • Red-teaming : test offensif pour identifier les vulnérabilités d'un modèle.
  • Jailbreak : contournement des règles de sécurité d'un LLM.
  • Prompt injection : attaque qui détourne un modèle via du texte malicieux.

7. Applications et écosystème

  • Chatbot : assistant conversationnel basé sur LLM.
  • Copilot : assistant IA intégré à un outil (Microsoft Copilot, GitHub Copilot).
  • Agent IA : programme autonome qui exécute des actions multi-étapes.
  • Agentic AI : ensemble de techniques pour bâtir des agents (planning, mémoire, outils).
  • Multi-agent : plusieurs agents collaborant pour une tâche.
  • Function calling / tool use : capacité d'un LLM à appeler des fonctions externes.
  • MCP (Model Context Protocol) : standard d'Anthropic pour relier LLMs et outils.
  • Diffusion model : architecture pour générer images et vidéos (Stable Diffusion, Imagen).
  • NeRF / Gaussian Splatting : techniques de reconstruction 3D photoréaliste.
  • TTS (Text-To-Speech) et STT (Speech-To-Text) : conversion texte ↔ voix.
  • OCR : reconnaissance optique de caractères.

Termes spécifiques 2026

  • GEO (Generative Engine Optimization) : optimisation de contenus pour les LLM. Voir notre guide GEO.
  • AEO (AI Engine Optimization) : sous-discipline focalisée sur les citations dans les moteurs IA.
  • llms.txt : fichier à la racine d'un site pour orienter les LLM (équivalent robots.txt).
  • Reasoning model : famille de modèles entraînés à raisonner étape par étape (o1, Claude 3.5 Sonnet, Gemini 2 Thinking).
  • Test-time compute : augmentation des ressources pendant l'inférence pour améliorer les sorties.
  • Mixture of Experts (MoE) : voir section 1.
  • Multimodal interleaving : capacité à mélanger texte/image/audio dans une même réponse.

Termes économiques et métiers

  • Inference cost : coût par token généré.
  • API call : appel programmatique à un service IA.
  • SaaS IA : service IA distribué en SaaS.
  • Open weight : modèles dont les poids sont publiés (Llama, Mistral, Qwen).
  • Closed model : modèles propriétaires (GPT, Claude).
  • BYOM (Bring Your Own Model) : déploiement d'un modèle propre via une plateforme tierce.

Conclusion

Maîtriser ce glossaire en 2026, c'est s'équiper du langage commun de l'IA pour piloter, contracter, décider. Pour explorer les outils d'automatisation et la catégorie LLM de lacreme.ai, parcourez nos sections dédiées. Voir aussi notre définition de l'IA et notre guide sur les prompts.

Häufig gestellte Fragen

Was ist ein Glossar zur künstlichen Intelligenz?

Ein Glossar der Künstlichen Intelligenz ist eine strukturierte Referenz der im Bereich der KI verwendeten Fachbegriffe: Modelle (LLM, SLM, VLM, MoE), Architektur (Transformer, Attention, Embeddings, Token), Training (Pretraining, Fine-Tuning, RLHF, DPO), Inferenz (Zero-shot, Chain-of-Thought), Daten (RAG, Vector Store), Governance (AI Act, RGPD, Watermarking) und Anwendungen (Agents, Copilots, MCP). Im Jahr 2026 beherrschen laut einer IBM-Studie mehr als 80 % der Führungskräfte dieses grundlegende Vokabular nicht.

Wie wählt man wichtige KI-Begriffe aus, die man kennen sollte?

Das hängt von der Rolle ab. Für eine Führungskraft: LLM, RAG, Agent, AI Act, Bias, Hallucination, GEO. Für einen Entwickler: transformer, attention, embeddings, fine-tuning, RLHF, tool use, MCP, function calling. Für einen Vermarkter: prompt engineering, GEO, AEO, multimodal, copilot. Für einen Juristen: AI Act, Bias, Erklärbarkeit, Watermarking, Urheberrecht. Das Vokabular ändert sich schnell: RAG, MoE und agentic AI sind innerhalb von 18 Monaten zum Mainstream geworden. Sein Lexikon auf dem neuesten Stand zu halten, ist nun eine professionelle Fähigkeit.

Lohnt sich ein KI-Glossar im Jahr 2026?

Ja, es ist zu einer professionellen Notwendigkeit geworden. Ohne das gemeinsame Vokabular ist es unmöglich, mit seinen Dienstleistern zu sprechen, seine Werkzeuge auszuwählen, Verträge auszuhandeln oder die gesetzlichen Vorschriften (AI Act, RGPD) einzuhalten. Laut IBM beherrschen mehr als 80 Prozent der Führungskräfte die grundlegende Terminologie nicht - das ist ein großer blinder Fleck. KI-Fähigkeiten gewähren laut WEF einen Gehaltsbonus von 56 %: Die Sprache zu beherrschen ist der erste Schritt. Ein gutes strukturiertes Glossar, das alle sechs Monate aktualisiert wird, reicht aus, um handlungsfähig zu bleiben.