AI: The Equalizer

  • Jordi Torras
  • Blog

Algo extraño está ocurriendo en la contratación, la educación y la concesión de subvenciones: todos parecen excelentes. Las cartas de presentación suenan como charlas TED. Los ensayos de los estudiantes se sienten pulidos y seguros. Las propuestas de proyectos llegan con estructura perfecta, tono perfecto, una “teoría del cambio” perfecta.

Es tentador llamar a esto progreso. Pero también crea un nuevo problema: cuando todas las presentaciones superan el antiguo estándar, la evaluación deja de funcionar.

El Ecualizador

En El Ecualizador, la historia sigue a un personaje que interviene cuando los sistemas fallan—cuando el poder está distribuido de manera desigual y quienes tienen reclamos legítimos no tienen una forma efectiva de defenderse. La narrativa se centra en restaurar el equilibrio en situaciones donde los mecanismos formales ya no funcionan.

El atractivo del personaje radica en este acto de neutralización. Al eliminar asimetrías ocultas, el Ecualizador permite que las causas justas sean escuchadas en condiciones más equitativas, sin posicionarse como el árbitro final del bien y el mal.

La metáfora se vuelve más clara si pensamos en un ecualizador real en la ingeniería de audio. Un ecualizador no hace que todas las frecuencias sean idénticas; ajusta los niveles hacia arriba o hacia abajo para que ninguna banda sobresalga sobre las demás. Las frecuencias demasiado bajas pueden ser potenciadas, las dominantes pueden reducirse, y el resultado no es la uniformidad, sino un sonido que funciona mejor en conjunto.

Un síntoma real: “todos los proyectos parecen excelentes”

Recientemente hablé con alguien responsable de evaluar iniciativas en una organización privada sin fines de lucro enfocada en inclusión social, educación, investigación científica, salud y acceso a la cultura—especialmente para grupos vulnerables. Su problema era simple y doloroso: todas las propuestas parecen sólidas. El proceso tradicional de selección (documentos, narrativas, objetivos, KPIs) ya no separa la señal del ruido.

Este no es un caso aislado. A medida que la IA generativa se convierte en una parte normal de las solicitudes de subvenciones y presentaciones de proyectos, las propuestas son más fáciles de redactar, más fáciles de pulir y más fáciles de alinear con las rúbricas de evaluación—a gran escala.

Qué cambió: antes evaluábamos la escritura; ahora debemos evaluar la realidad

Durante años, muchos sistemas de selección dependieron silenciosamente de proxies:

  • Claridad como proxy de competencia
  • Pulido como proxy de profesionalismo
  • Estructura como proxy de pensamiento estratégico
  • Confianza como proxy de liderazgo

La IA no solo ayuda a las personas a expresar ideas. Les ayuda a fabricar el proxy. Esa es la igualación: no de los resultados, sino de la presentación.

El output es barato; la responsabilidad no

Si hoy estás seleccionando personas o proyectos, la clave es dejar de preguntar “¿Está bien escrito?” y empezar a preguntar “¿Está asumido?”

La IA puede generar un plan convincente. Pero no puede aportar:

  • Compromiso personal (¿quién paga el precio si falla?)
  • Restricciones (¿qué haces cuando el tiempo, el dinero o los socios fallan?)
  • Compensaciones (¿quién pierde, qué se sacrifica, qué se pospone?)
  • Historial (¿qué hiciste realmente, bajo qué condiciones?)
  • Responsabilidad (¿quién responderá cuando la realidad no coincida con la narrativa?)
IA: El Ecualizador

¿Qué deberían hacer los evaluadores?

Aquí tienes formas prácticas de restaurar la señal—sin convertir el proceso en una caza de brujas por el uso de IA.

1) Pasar de artefactos a interacción

Los documentos son ahora la parte menos confiable del proceso—no porque sean falsos, sino porque son demasiado fáciles de optimizar. Agrega pasos que requieran pensar en movimiento, idealmente a través de interacción sincrónica como conversaciones presenciales o videollamadas en vivo.

  1. Sesión en vivo de “definición del problema”: da un escenario desordenado y pide a los solicitantes que definan el problema, no que lo resuelvan.
  2. Interrogatorio de compensaciones: “Si tuvieras que recortar el 30% del presupuesto mañana, ¿qué se rompe primero y qué proteges?”
  3. Auditoría de supuestos: “Nombra los 3 principales supuestos de los que depende tu proyecto. ¿Cómo probarías cada uno rápidamente?”

No son preguntas “trampa”. Son preguntas de realidad. La IA puede ayudar a prepararse, pero no puede reemplazar completamente la relación de una persona con las restricciones.

2) Haz que las personas defiendan lo que eliminaron (no lo que escribieron)

La IA es excelente para sumar. Los grandes evaluadores aprenden preguntando sobre la resta.

  • “¿Qué decidiste no hacer y por qué?”
  • “¿Qué parte interesada se sentirá decepcionada por tu enfoque?”
  • “¿Qué dejarías de hacer después del primer mes si los datos contradicen tu plan?”

Escribir con fluidez es fácil. Omitir de forma defendible es difícil.

3) Usa selección por etapas en vez de perfección de un solo intento

Una propuesta perfecta es barata. Pensar de forma consistente a lo largo del tiempo no lo es.

  1. Etapa 1: solicitud corta (forzar la brevedad; limitar el espacio)
  2. Etapa 2: pedir una revisión tras introducir una nueva restricción
  3. Etapa 3: conversación breve para reconstruir decisiones

A lo largo de varios pasos, aprendes quién se adapta, quién se adueña del trabajo y quién puede mantener la coherencia cuando la realidad cambia.

4) Acepta el uso de IA—pero exige divulgación y “evidencia de proceso”

Intentar prohibir la IA suele producir dos resultados: las personas honestas cumplen y quedan en desventaja; el resto simplemente lo oculta. Un enfoque más saludable es normalizar el uso de IA y pedir transparencia:

  • ¿Qué herramientas se usaron?
  • ¿Qué prompts o entradas influyeron en el resultado?
  • ¿Qué decisiones humanas se tomaron a causa de (o a pesar de) las sugerencias de la IA?

Esto alinea los incentivos: no castigas las herramientas; recompensas la responsabilidad.

Una nota sobre la equidad: el ecualizador corta en ambos sentidos

Hay un lado hermoso en todo esto. La IA puede reducir barreras para personas que históricamente perdieron porque no tenían gramática perfecta, asesoría de élite o el “estilo correcto” de narrativa profesional. Eso es inclusión genuina.

Pero la inclusión requiere nuevos músculos de evaluación. Si seguimos usando las viejas rúbricas, terminaremos financiando al mejor generador de texto, no al equipo más capaz—o al plan más realista. Y muchos otorgantes de subvenciones ya están debatiendo cómo la IA dará forma a la selección y la toma de decisiones.

En un mundo igualado, el juicio se vuelve el recurso escaso

Cuando todos pueden presentar algo pulido, el pulido deja de ser evidencia. El diferenciador se convierte en lo que siempre debió ser: juicio bajo restricciones, claridad sobre las compensaciones y responsabilidad por los resultados.

En otras palabras: el nuevo trabajo de los evaluadores no es detectar la IA. Es diseñar procesos de selección que midan lo que la IA no puede fabricar fácilmente—responsabilidad.

Haz que la IA trabaje para ti

Empodera tu visión con nuestra experiencia. Mi equipo y yo nos especializamos en convertir conceptos en realidad, ofreciendo soluciones a medida que redefinen lo posible. Desbloqueemos juntos todo el potencial de la IA. De manera efectiva.

Contáctanos