Introduction
Comme introduit dans mon article précédent, De l’Ingénierie Logicielle à l’IA : 20 ans de ruptures successives, plusieurs transformations technologiques — du Web au Cloud, puis à l’Intelligence Artificielle — ont progressivement augmenté la couche d’abstraction entre la machine et l’humain. Plus besoin de connaitre les bases de la programmation pour créer une application.
L’IA représente aujourd’hui l’abstraction ultime.
Comme prévu, ce blog parlera largement d’Intelligence Artificielle. Mais avant d’entrer dans les débats techniques, stratégiques et organisationnels, il est indispensable de maîtriser un socle minimal de vocabulaire. Sans cela, les discussions autour de l’IA deviennent rapidement confuses, imprécises, voire trompeuses.
Ce glossaire a donc un objectif simple :
fournir des définitions claires, expliquer l’origine des termes, et proposer des références fiables pour aller plus loin. Il est volontairement évolutif et sera enrichi au fil des articles.
Glossaire des termes clés de l’IA moderne
Vibe Coding
Description
Le Vibe Coding désigne une manière de développer où le programmeur s’appuie fortement sur une IA générative pour produire du code à partir d’intentions générales plutôt que de spécifications détaillées. Le développeur devient un guide, un validateur et un intégrateur.
Origine
Terme apparu dans les communautés de développeurs avec l’essor d’outils comme GitHub Copilot et ChatGPT.
Références
Prompt / Invite
Description
Un prompt ou invite est l’entrée fournie à un modèle d’IA (texte, image, audio ou combinaison) afin de produire une réponse. Il peut inclure des instructions, des contraintes, du contexte ou des exemples.
Origine
Issu du NLP (Natural Language Processing), popularisé par les LLM.
Références
Prompt Engineering / Ingénierie d’invite
Description
Le Prompt Engineering consiste à concevoir des commandes optimisés pour obtenir des réponses plus précises, cohérentes et exploitables.
Origine
Pratique émergente née de l’usage massif des modèles génératifs dans les années 2020.
Références
Chain of Thought / Chaine de Pensées
Description
Le Chain of Thought est une technique qui encourage le modèle à expliciter son raisonnement étape par étape avant de produire une réponse finale. Elle améliore significativement la qualité des réponses sur des problèmes complexes.
Origine
Introduite dans la recherche académique sur les LLM pour améliorer le raisonnement.
Références
- https://arxiv.org/abs/2201.11903
- https://www.promptingguide.ai/techniques/cot
Large Language Model (LLM) / Grand Modèle de Langage
Description
Un LLM est un modèle de langage entraîné sur d’immenses corpus de données afin de prédire la suite la plus probable d’une séquence de jetons.
Origine
Issu des avancées en deep learning, notamment les réseaux de neurones profonds.
Références
Token / Jeton
Description
Un token ou jeton est une unité de texte manipulée par le modèle (mot, sous-mot ou caractère). Les limites et coûts d’utilisation des modèles sont exprimés en tokens.
Origine
Concept hérité de la linguistique computationnelle.
Références
- https://platform.openai.com/tokenizer
- https://huggingface.co/docs/tokenizers
Context Window / Fenêtre de contexte
Description
La fenêtre de contexte correspond à la quantité maximale de tokens qu’un modèle peut prendre en compte simultanément (instructions, historique, données).
Origine
Limitation architecturale des modèles de type Transformer.
Références
Inférence
Description
L’inférence est la phase durant laquelle un modèle génère une réponse à partir d’un prompt, sans modifier ses paramètres internes.
Origine
Terme classique en statistique et en apprentissage automatique.
Références
- https://developer.nvidia.com/deep-learning
- https://aws.amazon.com/what-is/inference/
Fine-tuning / Réglage Fin
Description
Le fine-tuning consiste à adapter un modèle pré-entraîné à un contexte métier ou à un jeu de données spécifique.
Origine
Technique issue du deep learning pour réduire coûts et temps d’entraînement.
Références
Hallucination
Description
Une hallucination est une réponse générée par l’IA qui semble crédible mais est factuellement fausse ou inventée.
Origine
Terme adopté par la communauté IA pour décrire les limites du raisonnement probabiliste.
Références
- https://ai.stanford.edu/blog
- https://arxiv.org/
AI Slop
Description
L’AI Slop désigne la production massive de contenus de faible qualité générés automatiquement par IA, polluant le web et les moteurs de recherche.
Origine
Terme issu des communautés SEO et médias numériques.
Références
- https://www.searchenginejournal.com/
- https://www.theverge.com/
Slopsquatting
Description
Le Slopsquatting exploite les erreurs ou hallucinations des IA (noms de librairies ou URLs fictives) à des fins malveillantes.
Origine
Concept récent en cybersécurité appliquée à l’IA générative.
Références
- https://arxiv.org/abs/2308.XXXX
- https://owasp.org/
Deepfake
Description
Un deepfake est un contenu généré ou modifié par IA visant à imiter une personne réelle de manière crédible.
Origine
Issu des avancées en vision par ordinateur et deep learning.
Références
Prompt Injection / Injection d’invite
Description
La Prompt Injection est une attaque visant à détourner le comportement d’un modèle via des instructions dissimulées ou malveillantes.
Origine
Extension des concepts de sécurité applicative aux LLM.
Références
- https://owasp.org/www-project-top-10-for-large-language-model-applications/
- https://learn.microsoft.com/security/
MLOps
Description
Le MLOps regroupe les pratiques et outils permettant de déployer, surveiller et gouverner les modèles d’IA en production.
Origine
Évolution naturelle du DevOps appliqué au machine learning.
Références
- https://cloud.google.com/architecture/mlops-continuous-delivery-and-automation-pipelines-in-machine-learning
- https://learn.microsoft.com/azure/machine-learning/
Conclusion provisoire
Ce glossaire constitue une base conceptuelle commune pour comprendre et adopter l’IA de manière éclairée. Il sera enrichi régulièrement afin d’accompagner les évolutions rapides du domaine.
Les prochains articles s’appuieront explicitement sur ces définitions pour explorer les enjeux techniques, humains et organisationnels de l’ingénierie de l’IA moderne.




Ping : Les bases del’ingénierie logicielle augmentée par l’IA - ingenierieia.com
Très bonne revue !
Un gain formidable de temps formidable pour ceux qui se lancent.
Un grand merci !