Evaluar impacto es saber qué tanto cambian las personas con el programa y hacer seguimiento es mirar qué está pasando ahora. El seguimiento revisa, de forma constante, si se están haciendo las actividades. La evaluación de impacto busca saber si esos cambios se deben al programa y no solo al paso del tiempo o a la suerte. Juntas, ayudan a tomar decisiones más claras sobre qué mantener, qué ajustar y qué escalar.
Hacer seguimiento es mirar el programa mientras está ocurriendo, no solo al final. La idea es tener una rutina sencilla para saber si se están ejecutando las actividades, si la gente está participando.
En la práctica, el seguimiento se arma así:
- Primero, defines qué vas a revisar cada vez. Por ejemplo, asistencia, uso del servicio, llamadas realizadas.
- Luego, decides cada cuánto lo vas a mirar (semanal, quincenal o mensual) y quién es la persona responsable de actualizar la información.
- Por último, acuerdas qué pasa cuando un dato se sale de lo esperado. Por ejemplo, si no se envían los correos programados, si se cancelan visitas previstas, si se realizan menos talleres o sesiones de los que estaban planeado
No necesitas un sistema complejo, un tablero sencillo con pocas métricas clave y una reunión corta y periódica para revisarlas es suficiente para empezar.
El seguimiento solo, sin un marco de evaluación, tiende a quedarse en conteos. La evaluación sin seguimiento, en cambio, llega tarde y con poca capacidad de ajuste. Integrarlos permite:
- Detectar fallas de implementación en semanas y corregir el rumbo.
- Ver resultados (lo que tarda en ocurrir) y no solo salidas (lo que ocurre inmediatamente).
- Definir cuándo pasar de aprender rápido a atribuir cambios con más rigor.
La idea central es: seguimiento + evaluación = organizan el aprendizaje y evitan medir por medir.
Se mide en tres grupos sencillos:
- Acciones de coordinación y relacionamiento: todo lo que tiene que ver con mover actores para que el programa exista. Por ejemplo, correos enviados, llamadas de invitación y recordatorio, reuniones con aliados, espacios de articulación que se realizan, documentos compartidos.
- Acciones de implementación directa: son los contactos concretos con la población o con los equipos. Esto se puede ver en cosas como sesiones dictadas, visitas realizadas, talleres facilitados, acompañamientos hechos, materiales entregados, actividades de campo ejecutadas.
- Acciones de gestión de información: son los pasos que permiten que lo que pasa en el programa quede registrado. Por ejemplo, formularios diligenciados, bases de datos actualizadas, reportes cargados en plataformas, actas elaboradas y compartidas.
A partir de ahí, puedes ir sumando algunos indicadores sencillos del segundo grupo (primeras señales de avance), por ejemplo: personas que completan un curso, que empiezan a usar un servicio o que aplican una práctica que se promueve en la intervención. Los cambios más profundos suelen mirarse con menor frecuencia, dentro de ejercicios de evaluación específicos.
Las preguntas guía para decidir qué medir pueden ser:
- ¿Qué actividades son tan importantes que, si no se hacen, el programa no funciona?
- ¿Qué señales tempranas en las personas nos muestran que vamos en la dirección correcta?
- ¿Qué cambios más profundos queremos revisar cada cierto tiempo para saber si la intervención está cumpliendo su promesa?
El seguimiento se concentra en las actividades que sostienen el programa y en algunas señales tempranas, las evaluaciones miran, con menos frecuencia, los cambios más profundos en la vida de las personas.
Antes de llenar encuestas, empieza por la teoría de cambio, es decir, por la hoja de ruta para cambiarle la vida a los demás (el paso a paso para lograrlo). A partir de ahí, elige pocos indicadores clave para cada nivel: salidas, resultados e impactos.
En la práctica, el proceso luce así:
Primero, define a quién atiendes (población objetivo) y cuántas personas esperas cubrir. Luego acuerda indicadores que realmente se puedan medir con el tiempo, sin agotar a la gente, por ejemplo, asistencia al programa, ingreso promedio, nivel de habilidades, permanencia en el sistema educativo.
Después, arma un calendario sencillo: una medición inicial (ya sea con línea base o línea base retrospectiva), algunos cortes durante el programa (por ejemplo, cada tres meses) y una medición al final. Define también quién recoge los datos, cómo se pide el consentimiento y cómo se van a guardar y cuidar esos datos.
Para el seguimiento, bastan tableros simples con pocas métricas clave (no más de 10). Se pueden revisar cada dos semanas o cada mes para ver si algo se está saliendo de lo esperado.
La frecuencia depende de qué tan modificable es el indicador. Hay cosas que cambian en semanas y otras que solo se ven en meses.
Una forma práctica de organizarlo es:
- Semanal o quincenal (seguimiento): mira la operación. Cuántas personas asistieron, cuántos usan el servicio, si se están cumpliendo los horarios.
- Mensual o bimestral (seguimiento): revisa si aparecen los primeros resultados: personas que terminan el curso, cambios de hábitos, satisfacción con el servicio.
- Trimestral o semestral (evaluación de impacto): mira con más calma los cambios en resultados e impactos. Aquí puedes comparar antes‑después y, si tienes grupo de control, diferencias entre grupos.
En cada revisión deja tres decisiones: ¿qué mantener?, ¿qué ajustar?, ¿qué pausar? Documenta cambios para interpretarlos luego en la evaluación.
Medir no garantiza entender, hay que interpretar con cuidado. Evita errores comunes:
- Confundir salidas con impactos: entregar no es cambiar vidas.
- Atribuir cambios sin un grupo de comparación: si no hay un grupo control, habla de resultados resultados y explica límites de causalidad (explica que no puedes estar seguro de que todo el cambio se deba al programa).
- Olvidar que hay épocas distintas del año: compara siempre meses o periodos parecidos. Por ejemplo, en vacaciones bajan algunas asistencias.
- Cambiar preguntas o escalas en cada medición: si cambias la forma de preguntar, luego no puedes comparar bien el antes‑después.
- Medir demasiado seguido o demasiado tarde: si preguntas todo el tiempo, cansas a la gente; si solo preguntas al final, ya no puedes ajustar nada.
La honestidad al leer los datos aumenta la credibilidad y evita promesas que no puedes sostener.
Imagina un programa que busca disminuir la tasa de desempleo juvenil, al final de una cohorte de este, la evaluación muestra algo curioso, el 79% de las personas están buscando trabajo de forma activa (envían hojas de vida, van a ferias, se postulan en plataformas y LinkedIn), pero solo el 18% logran ser contratadas. Es decir, hay movimiento, pero el resultado no llega como se esperaba.
Al revisar las métricas de seguimiento, encuentran que los talleres prácticos de entrevistas de trabajo, que eran una pieza clave de la estrategia, casi no se hicieron por problemas logísticos (se cancelaron varias sesiones, hubo cambios de agenda y no se reprogramaron a tiempo, etc.). En el momento de observar con más detalle las cifras, el equipo ve que cerca del 60% de quienes aplicaban sí llegaban a una entrevista, pero no pasaban ese filtroEn papel la teoría de cambio incluía esos talleres, pero en la práctica no se ejecutaron como estaba previsto.
Con esa información, la decisión para la siguiente cohorte es clara:
- Reactivar y priorizar los talleres prácticos de entrevista como parte central de la ruta.
- Ofrecer versiones adicionales o de refuerzo a las personas que ya pasaron por el programa y no los recibieron.
- Ajustar el seguimiento para que, si un taller clave se cancela, quede registrado y se reaccione rápido.
El aprendizaje es directo, el impacto se ve limitado si la ejecución no se lleva a cabo según lo esperado. La evaluación ayuda a ver el síntoma (jóvenes que buscan trabajo pero no son contratados), pero es el seguimiento el que explica qué pasó con la implementación y orienta los ajustes concretos en el programa.
Evaluar impacto y hacer seguimiento no son ejercicios separados: son partes de un mismo sistema. El seguimiento te permite ver cómo va el programa mientras ocurre, la evaluación te ayuda a entender si los cambios importantes se pueden atribuir al programa. Juntas, estas dos prácticas apoyan mejores decisiones y ayudan a cumplir la promesa de impacto social —cambiarle la vida a los demás— con datos claros y honestos. ¿Quieres armar un esquema simple y útil de seguimiento y evaluación para tu programa? Hablemos.


