Evaluar con control es medir el inicio y el final de una intervención, y qué habría pasado si no ocurría. Al incluir un grupo comparable sin atención (o con otra atención), puedes atribuir con mayor precisión si los cambios observados se deben al programa y no a factores externos. Esta evaluación sirve para escalar lo que funciona, rediseñar lo que no y rendir cuentas con evidencia robusta ante financiadores, directorios y entidades públicas, manteniendo criterios éticos en selección, consentimiento y protección de datos.
El propósito central es atribuir el cambio al programa con mayor rigor. En la práctica, permite responder, cuánto mejoraron los participantes por el programa frente a un grupo similar sin exposición. Conviene cuando debes tomar decisiones grandes como escalar una política pública, validar un modelo para inversión de impacto, o asignar presupuesto entre alternativas.
También resulta útil cuando los resultados pueden estar influidos por choques externos (crisis económicas, estacionalidad, nuevas normas, etc.). Con un control bien diseñado, separas lo que habría pasado incluso sin el programa, de lo que ocurre porque existe la intervención.
No todos los contextos permiten lo mismo. Aquí “más controlado” significa que tenemos más seguridad de que los grupos son comparables y dependemos menos de supuestos; “menos controlado” implica más dependencia de lo que ya pasó y de supuestos sobre los datos. Estos son esquemas frecuentes y qué exigen:
- Ensayo aleatorizado (RCT): asigna al azar quién recibe y quién no. Asegura grupos comparables. Requiere criterios claros, ética de asignación y poder estadístico.
- Diferencias‑en‑diferencias (DiD): compara la evolución de tratados y no tratados en el tiempo. Necesita tendencias paralelas plausibles y mediciones previas y posteriores.
- Regresión discontinua (RDD): aprovecha un umbral de elegibilidad (ej., puntaje). En torno al corte, los grupos son comparables. Pide suficiente densidad de casos cerca del umbral.
- Emparejamiento/propensity score (PSM): construye un control similar por características observadas. No corrige diferencias en variables no observadas; exige buen set de covariables.
- Instrumentos naturales (IV): usa una variable externa que afecta la participación, pero no el resultado, salvo por la participación. Útil, pero requiere supuestos fuertes y verificación.
Antes de pensar en fórmulas, aterriza el proceso con foco en personas y operación. Define a quién vas a atender, por qué y cuál es la cantidad mínima de programa que necesita recibir cada persona (horas, sesiones, visitas, etc.). Alinea tu teoría de cambio —la hoja de ruta para cambiarle la vida a los demás (el paso a paso para lograrlo)— con lo que realmente puedes entregar en territorio.
El paso más difícil es decidir la metodología apropiada de depende de distintas variables: ¿hay posibilidad de sorteo? ¿hay alguna regla o puntaje que defina quién entra y quién no? ¿puedes recolectar línea base en ambos grupos y asegurar seguimiento comparable?
Implementa de forma ordenada: usa una línea base común a tratamiento y control y un cuestionario de cierre equivalente.
Checklist mínimo (para no perderse)
- Elegibilidad transparente y criterios escritos.
- Línea base y cierre en ambos grupos, mismas escalas y ventanas de tiempo.
- Monitoreo de cumplimiento (quién recibió qué y cuánto).
- Registro de contaminación (controles que accedieron al servicio por otra vía).
- Plan de análisis definido antes de abrir datos (métricas, subgrupos, manejo de faltantes).
La atribución no justifica prácticas poco éticas. Evita dejar personas por fuera sin una razón clara y justificable y comunica claramente qué significa participar (y no participar). Solicita consentimiento y ofrece alternativas a quienes queden sin atención, como ingreso diferido, servicios estándar o derivación a aliados.
Cuida riesgos: el hecho de que la gente se salga del estudio en el camino (abandono), choques externos y errores de medición. Mitiga con seguimiento activo, registros de contexto, pilotos y auditorías de calidad. Reporta lo encontrado sin sin prometer más de lo que muestran los datos: una estimación puntual siempre viene con incertidumbre (intervalos de confianza) y supuestos que deben explicitarse.
Antes de publicar, valida resultados con equipos técnicos y, cuando sea pertinente, comparte hallazgos con la población participante de forma clara y útil.
Una evaluación con control entrega efectos atribuibles: diferencias promedio entre tratamiento y control tras la intervención, con su magnitud y precisión. También puede revelar heterogeneidad de efectos (qué segmentos cambiaron más) y ayudar a estimar relaciones costo‑efectividad.
- Tamaño del efecto: cuánto cambia el indicador en unidades naturales o desviaciones estándar.
- Precisión: intervalos de confianza y significancia; evita conclusiones por diferencias pequeñas e inestables.
- Segmentación: analiza subgrupos (edad, género, intensidad de uso, territorio) con cautela para no inflar falsos positivos.
- Implicación operativa: qué ajustar, qué escalar, qué abandonar; link directo con decisiones presupuestales.
Evaluar con control te permite atribuir con confianza y tomar decisiones grandes sin adivinar: escalar lo que funciona, rediseñar lo que no y rendir cuentas con evidencia clara. Si buscas un diseño factible, ético y robusto para tu programa, desde el sorteo hasta el análisis. Hablemos.


