Glossaire
Définitions des concepts utilisés dans la transformation IA.
Maturité IA
IA-assisté (AI-Assisted) : L'IA est un outil personnel; rien de structurel ne change si elle disparaît. Voir le cadre de référence.
IA-intégré (AI-Integrated) : L'IA est intégrée dans les flux de travail; les rôles passent de « faire » à « diriger ». Voir le cadre de référence.
IA-natif (AI-Native) : La conception du travail assume l'IA comme ressource de premier plan; les rôles sont définis par le jugement, pas l'exécution. Voir le cadre de référence.
IA-favorable (AI-Supportive) : Le dirigeant endosse publiquement l'IA sans pousser l'adoption organisationnelle. Voir le cadre de référence.
IA-opérationnel (AI-Operational) : Le dirigeant fixe des attentes par rôle et finance l'automatisation avant l'embauche. Voir le cadre de référence.
IA-stratégique (AI-Strategic) : Le dirigeant redéfinit l'organisation autour de l'IA et fait de la littératie IA une condition du leadership. Voir le cadre de référence.
IA-conscient (AI-Aware) : L'individu utilise l'IA ponctuellement sans changer ses flux de travail. Voir le cadre de référence.
IA-augmenté (AI-Augmented) : L'individu intègre l'IA dans ses flux de travail récurrents de façon systématique. Voir le cadre de référence.
Ingénierie IA
Production autonome (Autonomous production) (Échelon 5) Modèle d'ingénierie où la spécification entre et le logiciel sort sans intervention humaine sur le code. L'humain définit l'architecture, les contraintes et les scénarios; l'IA produit, teste et itère le code. Aussi appelé «usine autonome» (dark factory). Voir le Lab IA.
Code assisté (Assisted coding) (Échelon 0) Mode de développement où l'humain code et l'IA suggère des complétions. Le niveau d'assistance IA le plus bas en ingénierie logicielle.
Développement non-interactif (Non-interactive development) Mode de travail où les spécifications et scénarios dirigent des agents autonomes. L'humain ne code pas et ne converse pas avec l'agent pendant l'exécution. Voir le Lab IA.
Scénarios (Scenarios) Parcours utilisateur de bout en bout qui décrivent le comportement attendu du point de vue de l'utilisateur. Privilégiés par rapport aux tests unitaires parce qu'ils sont plus difficiles à contourner par les agents. Voir le Lab IA.
Métrique de satisfaction (Satisfaction metric) Approche d'évaluation qui mesure la fraction des trajectoires à travers tous les scénarios qui satisfont l'utilisateur, plutôt qu'un binaire tests verts/rouges. Voir le Lab IA.
Naïveté délibérée (Deliberate naivety) Posture consistant à retirer les conventions du développement classique et à se demander systématiquement : « Pourquoi est-ce que JE fais ça ? Le modèle devrait le faire à ma place. » Voir le Lab IA.
Terrain vierge (Greenfield) Projet démarré de zéro, sans code existant. Le terrain le plus naturel pour le développement non-interactif. Voir le Lab IA.
Projet existant (Brownfield) Projet avec du code et des habitudes existants, transitionné vers le modèle de production autonome. Plus difficile que le terrain vierge, mais plus d'impact. Voir le Lab IA.
Compétences IA
Littératie IA (AI literacy) : Usage structuré des outils IA et capacité à distinguer l'usage ponctuel de l'intégration dans les flux de travail. Voir le guide employés.
Rédaction de prompts (Prompt craft) : Instructions claires, format spécifié, exemples, ambiguïté résolue en amont. Voir les standards d'exécution.
Ingénierie de contexte (Context engineering) : Fichier de contexte structuré chargé avant les tâches IA. Voir les standards d'exécution.
Ingénierie d'intention (Intent engineering) : Hiérarchie des objectifs, règles d'arbitrage et conditions d'escalade définis. Voir les standards d'exécution.
Ingénierie de spécification (Specification engineering) : Toute tâche non triviale a une spécification écrite complète reposant sur cinq composantes. Voir les standards d'exécution et le guide d'ingénierie de spécification pour des exemples pratiques.
Spécification (Specification) : Document définissant un problème avec assez de précision pour qu'un agent puisse le résoudre de façon autonome. Voir les standards d'exécution et le guide d'ingénierie de spécification.
Énoncés de problème autonomes (Self-contained problem statements) : Problème formulé avec assez de contexte pour être résoluble sans information supplémentaire. Voir les standards d'exécution.
Critères d'acceptation (Acceptance criteria) : Ce à quoi ressemble « terminé », vérifiable par un observateur indépendant. Voir les standards d'exécution.
Architecture des contraintes (Constraint architecture) : Quatre catégories par tâche : Doit, Ne doit pas, Préfère, Escalade. Voir les standards d'exécution.
Décomposition (Decomposition) : Tâches découpées en composantes exécutables, testables et intégrables indépendamment. Voir les standards d'exécution.
Conception d'évaluation (Evaluation design) : Cas de test avec des résultats connus pour valider et détecter les régressions. Voir les standards d'exécution.
Conception des coutures (Seam design) Pratique consistant à structurer le travail pour que les transitions entre phases humaines et phases agent soient propres, vérifiables et récupérables. Une bonne couture définit l'artefact de transfert, permet de contrôler la production de l'agent au point de transition, et permet d'intervenir sans tout recommencer. Les coutures se déplacent à mesure que les capacités évoluent. Voir le guide employés.
Économie de la transformation
Migration de valeur (Value migration) La technologie réassigne la valeur à la couche la plus rare. Dans la transformation IA, la valeur quitte l'exécution (commodité) et se concentre sur le jugement, le cadrage et la propriété du risque (prime). Voir la vision.
Les 5 fonctions humaines (The 5 human functions) Direction, Jugement, Goût, Relation, Responsabilité. Les fonctions qui restent irremplaçables dans une organisation IA-native. Voir la vision.
Évolution des rôles
Convergence — Plusieurs rôles fusionnent parce que l'IA élimine les coûts de coordination qui justifiaient leur séparation. Le rôle convergé conserve la surface de jugement combinée. Voir Évolution des rôles.
Spécialisation (Specialization) — Un rôle se resserre autour de son noyau humain irréductible à mesure que l'IA absorbe la couche routinière. Le rôle devient plus précis, pas plus petit. Voir Évolution des rôles.
Élévation (Elevation) — Les humains passent de la production d'artefacts à leur spécification et évaluation. Correspond à la Règle de traduction universelle. Voir Évolution des rôles.
Absorption — Les responsabilités d'un rôle sont absorbées par les rôles adjacents ou les systèmes. Les responsabilités se redistribuent ; le rôle se contracte ou disparaît. Voir Évolution des rôles.
Émergence (Emergence) — Des rôles structurellement nouveaux surgissent de la structure organisationnelle IA-native. Nommés d'après leur responsabilité, pas la technologie. Voir Évolution des rôles.
Matrice de décision des rôles (Role Decision Matrix) — Outil structuré reliant les conditions observables au patron d'évolution le plus probable et à l'action recommandée. Voir Évolution des rôles.
Adoption et transition
Courbe en J de l'adoption (Adoption J-curve) Creux de productivité prévisible lors de l'adoption IA. La productivité baisse avant de remonter. Les organisations qui en sortent sont celles qui reconçoivent leurs flux de travail autour des capacités IA. Voir le guide gestionnaires.
Brief de transition (Transition brief) Document structuré livré par un employé qui décrit son rôle actuel, sa vision IA du rôle, l'écart, les systèmes à construire, les métriques et le plan 30/60/90. Voir le guide employés.
Cliniques IA (AI clinics) Sessions régulières (hebdomadaires ou bimensuelles) où l'équipe partage ses découvertes, ses blocages et ses flux de travail. Format court (30 min). L'objectif est l'apprentissage entre pairs. Voir le guide gestionnaires.
Mur des six mois (Six-month wall) Patron de défaillance où les projets IA sans implication humaine forte (spécification, scénarios, architecture) accumulent une dette structurelle qui explose après environ six mois. Les scénarios sont la défense principale. Voir le Lab IA.
Décalibration (Calibration decay) Les compétences IA expirent à mesure que les capacités évoluent. Une personne qui a calibré son sens de la frontière humain-agent il y a six mois surestime ou sous-utilise les modèles actuels. L'antidote est la densité de rétroaction : des cycles fréquents de déléguer-évaluer-ajuster avec les modèles actuels, pas de formation ponctuelle. Voir le guide gestionnaires.
← Retour à l'accueil · Le cadre de référence · Standards d'exécution IA
