AI: Equalizer

  • Jordi Torras
  • Blog

Quelque chose d’étrange se passe dans le recrutement, l’éducation et l’attribution de subventions : tout le monde semble excellent. Les lettres de motivation ressemblent à des conférences TED. Les essais d’étudiants paraissent soignés et assurés. Les propositions de projet arrivent avec une structure parfaite, un ton parfait, une “théorie du changement” parfaite.

Il est tentant d’appeler cela du progrès. Mais cela crée aussi un nouveau problème : quand chaque soumission franchit l’ancien seuil, l’évaluation cesse de fonctionner.

L’Égalisateur

Dans L’Égalisateur, l’histoire suit un personnage qui intervient lorsque les systèmes échouent—quand le pouvoir est inégalement réparti et que ceux qui ont des revendications légitimes n’ont aucun moyen efficace de se défendre. Le récit se concentre sur le rétablissement de l’équilibre dans des situations où les mécanismes formels ne fonctionnent plus.

L’attrait du personnage réside dans cet acte de neutralisation. En supprimant les asymétries cachées, l’Égalisateur permet aux causes justes d’être entendues sur un pied d’égalité, sans se positionner comme l’arbitre ultime du bien et du mal.

La métaphore devient plus claire si l’on pense à un égaliseur en ingénierie audio. Un égaliseur ne rend pas chaque fréquence identique ; il ajuste les niveaux vers le haut ou vers le bas afin qu’aucune bande ne domine les autres. Les fréquences trop faibles peuvent être amplifiées, les dominantes atténuées, et le résultat n’est pas l’uniformité, mais un son qui fonctionne mieux dans son ensemble.

Un symptôme réel : “tous les projets semblent excellents”

Récemment, j’ai discuté avec une personne chargée d’évaluer des initiatives dans une fondation privée axée sur l’inclusion sociale, l’éducation, la recherche scientifique, la santé et l’accès à la culture—en particulier pour les groupes vulnérables. Son problème était simple et douloureux : chaque proposition paraît solide. Le processus de sélection traditionnel (documents, récits, objectifs, indicateurs) ne permet plus de distinguer le signal du bruit.

Ce n’est pas un cas isolé. À mesure que l’IA générative devient une composante normale des candidatures et des soumissions de projets, les propositions sont plus faciles à rédiger, à peaufiner et à aligner sur les grilles d’évaluation—à grande échelle.

Ce qui a changé : nous évaluions l’écriture ; nous devons maintenant évaluer la réalité

Pendant des années, de nombreux systèmes de sélection se sont appuyés discrètement sur des substituts :

  • Clarté comme substitut de la compétence
  • Polissage comme substitut du professionnalisme
  • Structure comme substitut de la pensée stratégique
  • Confiance comme substitut du leadership

L’IA n’aide pas seulement à exprimer des idées. Elle aide à fabriquer le substitut. Voilà l’égalisation : non pas des résultats, mais de la présentation.

La production est bon marché ; la responsabilité ne l’est pas

Si vous sélectionnez des personnes ou des projets aujourd’hui, l’essentiel est de cesser de demander “Est-ce bien écrit ?” et de commencer à demander “Est-ce approprié ?”

L’IA peut générer un plan convaincant. Mais elle ne peut pas fournir :

  • De l’engagement personnel (qui paie le prix en cas d’échec ?)
  • Des contraintes (que faites-vous si le temps, l’argent ou les partenaires font défaut ?)
  • Des arbitrages (qui perd, que sacrifie-t-on, que reporte-t-on ?)
  • Un historique (qu’avez-vous réellement fait, dans quelles conditions ?)
  • De la responsabilité (qui répondra lorsque la réalité contredira le récit ?)
AI: The Equalizer

Que doivent faire les évaluateurs ?

Voici des moyens concrets de restaurer le signal—sans transformer le processus en chasse aux sorcières contre l’IA.

1) Passer des artefacts à l’interaction

Les documents sont désormais la partie la moins fiable du processus—non parce qu’ils sont faux, mais parce qu’ils sont trop faciles à optimiser. Ajoutez des étapes qui exigent de penser en temps réel, idéalement via des interactions synchrones comme des entretiens en personne ou des appels vidéo en direct.

  1. Session de “cadrage de problème” en direct : donnez un scénario complexe et demandez aux candidats de définir le problème, pas de le résoudre.
  2. Interrogation sur les arbitrages : “Si vous deviez réduire le budget de 30% demain, qu’est-ce qui casse en premier et que protégez-vous ?”
  3. Audit des hypothèses : “Citez les 3 principales hypothèses sur lesquelles repose votre projet. Comment testeriez-vous chacune rapidement ?”

Ce ne sont pas des questions pièges. Ce sont des questions de réalité. L’IA peut aider à se préparer, mais elle ne peut pas remplacer entièrement la relation d’une personne avec les contraintes.

2) Faire défendre ce qui a été retiré (pas ce qui a été écrit)

L’IA est excellente pour ajouter. Les bons évaluateurs apprennent en interrogeant sur la soustraction.

  • “Qu’avez-vous décidé de ne pas faire, et pourquoi ?”
  • “Quel acteur sera déçu par votre approche ?”
  • “Qu’arrêteriez-vous après le premier mois si les données contredisent votre plan ?”

Écrire couramment est facile. Omettre de façon défendable est difficile.

3) Utiliser un filtrage par étapes plutôt qu’une perfection en une fois

Une proposition parfaite est bon marché. Une pensée cohérente dans le temps ne l’est pas.

  1. Étape 1 : candidature courte (forcer la concision ; limiter l’espace)
  2. Étape 2 : demander une révision après avoir introduit une nouvelle contrainte
  3. Étape 3 : courte conversation pour reconstituer les décisions

En plusieurs étapes, vous découvrez qui s’adapte, qui s’approprie le travail, et qui reste cohérent quand la réalité change.

4) Accepter l’usage de l’IA—mais exiger la transparence et des “preuves de processus”

Tenter d’interdire l’IA produit généralement deux résultats : les personnes honnêtes respectent la règle et sont désavantagées ; les autres la contournent. Une approche plus saine consiste à normaliser l’usage de l’IA et à demander de la transparence :

  • Quels outils ont été utilisés ?
  • Quels prompts ou entrées ont influencé le résultat ?
  • Quelles décisions humaines ont été prises grâce (ou malgré) les suggestions de l’IA ?

Cela aligne les incitations : il ne s’agit pas de punir les outils, mais de récompenser l’appropriation.

Une note sur l’équité : l’égaliseur agit dans les deux sens

Il y a un aspect positif à tout cela. L’IA peut réduire les barrières pour les personnes qui, historiquement, étaient désavantagées parce qu’elles n’avaient pas une grammaire parfaite, un coaching d’élite ou le “bon” style de récit professionnel. C’est une véritable inclusion.

Mais l’inclusion exige de nouveaux réflexes d’évaluation. Si nous continuons à utiliser les anciennes grilles, nous finirons par financer le meilleur générateur de texte plutôt que l’équipe la plus compétente—ou le plan le plus ancré. Et de nombreux bailleurs de fonds débattent déjà de la façon dont l’IA va façonner la sélection et la prise de décision.

Dans un monde égalisé, le jugement devient la ressource rare

Quand tout le monde peut soumettre un texte soigné, le soin n’est plus une preuve. Le critère distinctif redevient ce qu’il aurait toujours dû être : le jugement sous contrainte, la clarté sur les arbitrages, et la responsabilité des résultats.

En d’autres termes : le nouveau rôle des évaluateurs n’est pas de détecter l’IA. C’est de concevoir des processus de sélection qui mesurent ce que l’IA ne peut pas fabriquer à bas coût—la responsabilité.

Faites travailler l'IA pour vous

Renforcez votre vision avec notre expertise. Moi et mon équipe sommes spécialisés dans la concrétisation des concepts en réalité, offrant des solutions sur mesure qui redéfinissent ce qui est possible. Débloquons ensemble tout le potentiel de l'IA. Efficacement.

Contactez-nous