• Skip to main content
  • Skip to footer
  • Home

The May 13 Group

the next day for evaluation

  • Get Involved
  • Our Work
  • About Us
You are here: Home / Archives for allblogs

allblogs

May 10 2025

Evaluation Roots de Marvin C. Alkin: Las raíces, ramas y rizomas de una disciplina en expansión

En el vasto y complejo universo de la evaluación de programas, Evaluation Roots, editado por Marvin C. Alkin, se erige como una obra fundamental. Desde su primera edición en 2004, pasando por su expansión en 2013, hasta su versión más inclusiva y aplicada en 2023, este libro no solo compila teorías evaluativas, sino que traza una genealogía viva del pensamiento evaluativo contemporáneo. Más que un texto, Evaluation Roots es un mapa conceptual, un árbol teórico, un jardín de ideas en evolución constante.

Este post reúne, fusiona y profundiza todas las ideas clave de las tres versiones analizadas sobre el libro, integrando los aportes dispersos de cada reseña en un ensayo único, cohesivo y exhaustivo.

🌳 1. La metáfora fundacional: El árbol de la evaluación

Desde su concepción, Evaluation Roots propone una visión gráfica y conceptual del campo: un árbol cuyas raíces representan las grandes corrientes teóricas, de las cuales surgen diversas ramas, teorías híbridas y aplicaciones prácticas. Esta metáfora ha sido celebrada por su claridad y utilidad pedagógica.

Las tres raíces principales:

  • Use Branch (orientada al uso): encabezada por Michael Q. Patton, enfatiza la importancia del uso real de los resultados de evaluación por los tomadores de decisiones.
  • Methods Branch (orientada a métodos): representada por figuras como Donald Campbell, pone el acento en el rigor científico, la medición precisa y el diseño metodológico.
  • Valuing Branch (orientada a valores): liderada por Michael Scriven, se centra en el juicio evaluativo basado en criterios explícitos de valor, a menudo independiente del diseño del programa.

Cada raíz está asociada con autores clave, trayectorias intelectuales y debates metodológicos. Esta estructura permite entender que la evaluación no es una práctica neutral ni técnica, sino una disciplina anclada en fundamentos epistemológicos, éticos y políticos.

🧠 2. Contenido estructural de las ediciones

📘Primera edición (2004) – La genealogía toma forma

Alkin organiza por primera vez la disciplina en torno a las tres raíces mencionadas. La obra ofrece una visión clara pero centrada en el contexto estadounidense, con poca representación internacional. Aun así, introduce un marco teórico sólido, visual y accesible, que ha servido de referencia fundacional.

📗Segunda edición (2013) – Nuevas ramas y conexiones

Esta edición amplía el número de autores y teorías abordadas. Incorpora a Ernest House (evaluación ética) y Elliot Eisner (evaluación artística), y reconoce intersecciones entre ramas. La teoría evaluativa comienza a verse como un sistema ecológico, donde las ideas no solo coexisten, sino que se influyen mutuamente. La noción de “ecología de teorías” de Fitzpatrick et al. (2011) toma fuerza aquí.

📕Tercera edición (2023) – Globalización, práctica y metáforas alternativas

Con el subtítulo Theory Influencing Practice, la tercera edición marca un cambio profundo. Tres elementos la distinguen:

  1. Internacionalización: Se integran perspectivas no occidentales, como la Evaluación Culturalmente Responsiva (CRE) y la Evaluación Indígena, reflejando una apuesta por la diversidad epistemológica (Carden & Alkin, 2012).
  2. Aplicación concreta: Casos reales ilustran cómo las teorías guían decisiones metodológicas y prácticas en contextos reales.
  3. Visualizaciones alternativas: Surgen metáforas como el río (Aston, 2024), el mapa del metro o el jardín (Montrosse-Moorhead et al., 2024), que cuestionan la linealidad del árbol y promueven una visión rizomática y fluida del campo.

🧩 3. Temas y mensajes principales

  • La evaluación no es neutral ni única. Cada enfoque responde a propósitos, públicos y contextos históricos distintos.
  • Los teóricos no trabajan en aislamiento. Hay diálogo, tensión y evolución continua entre marcos.
  • El contexto importa. La práctica evaluativa debe adaptarse a las condiciones socioculturales, económicas y políticas.

🧰 4. Aplicaciones prácticas

El libro funciona como una brújula para profesionales. Comprender las raíces teóricas ayuda a:

  • Elegir métodos apropiados según el contexto.
  • Diseñar evaluaciones culturalmente sensibles.
  • Justificar elecciones teóricas frente a múltiples stakeholders.

🌐 5. Perspectiva internacional

La colaboración con Fred Carden en Evaluation Roots: An International Perspective subraya cómo la evaluación se ha adaptado a contextos del Sur Global, donde las realidades institucionales, culturales y políticas son distintas. Este giro internacionaliza el campo, reconociendo la legitimidad de marcos no tradicionales.

🎨 6. Innovación visual: más allá del árbol

Las nuevas metáforas proponen:

  • 🌳Árbol: lineal, estructurado y didáctico.
  • 🌊Río: fluido, evolutivo y sin principio fijo.
  • 🌸Jardín: simultaneidad de enfoques que florecen en distintos contextos.
  • 🚇Mapa del metro: rutas múltiples que se conectan en nodos teóricos compartidos.

Estas visualizaciones reflejan un campo interconectado, plural y en movimiento.

🔍 7. Comparaciones clave

Obra Enfoque Diferenciador
Evaluation: A Systematic Approach (Rossi et al., 2004) Técnico y normativo Diseño paso a paso
Utilization-Focused Evaluation (Patton, 2008) Pragmático y centrado en el uso Evaluaciones en entornos reales
Evaluation Roots (Alkin, varias ed.) Histórico y teórico Fundamentos, genealogía, visualización

Evaluation Roots no enseña a evaluar, sino a pensar críticamente la evaluación.

🧭 8. Críticas y límites

  • Foco inicial excesivamente estadounidense.
  • Ausencia parcial de marcos centrados en justicia social y equidad (Chelimsky, 1997).
  • Necesidad constante de actualización ante nuevos desafíos evaluativos (inteligencia artificial, descolonización del conocimiento, etc.).

📖 9. Recomendaciones bibliográficas complementarias

  • Stufflebeam – Evaluation Theory, Models, and Applications.
  • Scriven – The Discipline of Evaluation.
  • Patton – Developmental Evaluation.
  • Chelimsky & Shadish – Evaluation for the 21st Century.
  • Montrosse-Moorhead et al. – The Garden of Evaluation Approaches (2024).

✨ 10. Impacto cultural y formativo

Desde su publicación, Evaluation Roots ha sido referencia en programas de posgrado en educación, políticas públicas y salud. Ha influido en cómo las nuevas generaciones de evaluadores entienden su rol no como técnicos, sino como actores críticos en escenarios de poder, conflicto, aprendizaje e innovación.

💭 Reflexión final: De raíces a rizomas

Cada edición de Evaluation Roots ha sido más ambiciosa, inclusiva y aplicada. Lo que comenzó como un árbol teórico se ha expandido hacia estructuras rizomáticas, donde el conocimiento ya no crece solo hacia arriba, sino en múltiples direcciones, respondiendo a complejidades sociales, culturales y políticas.

La evaluación, en esta concepción, no es simplemente técnica: es un acto ético, político y contextualizado. Como práctica, exige conciencia crítica; como disciplina, demanda apertura epistémica; y como herramienta, puede contribuir activamente a la transformación social.

📚 Fuentes y referencias clave

 Referencias destacadas

  • Alkin, M. C. (Ed.). (2004). Evaluation Roots: Tracing Theorists’ Views and Influences (1st ed.). SAGE Publications.
  • Alkin, M. C. (Ed.). (2013). Evaluation Roots: A Wider Perspective of Theorists’ Views and Influences (2nd ed.). SAGE Publications.
  • Alkin, M. C., Christie, C. A., & Stephen, N. A. (2023). Evaluation Roots: Theory Influencing Practice (3rd ed.). SAGE Publications.
  • Christie, C. A., & Alkin, M. C. (2008). Evaluation Theory Tree Re-examined. Studies in Educational Evaluation, 34(3), 131–135.
  • Carden, F., & Alkin, M. C. (2012). Evaluation Roots: An International Perspective. Journal of MultiDisciplinary Evaluation, 8(17).
  • Aston, T. (2024). Repositioning Evaluation Theory Trees. Medium.
  • Montrosse-Moorhead, B., Schroeter, D., & Becho, L. (2024). The Garden of Evaluation Approaches. Journal of MultiDisciplinary Evaluation, 20(45).
  • Patton, M. Q. (2008). Utilization-Focused Evaluation (4th ed.). SAGE Publications.
  • Scriven, M. (1991). Evaluation Thesaurus (4th ed.). SAGE Publications.

Written by cplysy · Categorized: TripleAD

May 08 2025

Innovación con impacto: Equilibrando escalabilidad y adaptación local con el marco 5D

En el mundo de la innovación para el desarrollo, surge una pregunta crucial: ¿cómo escalar soluciones exitosas sin perder su efectividad en contextos diversos? Esta fue una de las interrogantes centrales exploradas recientemente en un webinario en torno al marco 5D de gestión de la innovación, una herramienta impulsada por UNICEF y el United Nations Innovation Network (UNIN), que busca fortalecer la efectividad y sostenibilidad de soluciones innovadoras, especialmente en contextos humanitarios y de desarrollo orientados a la infancia.

Este enfoque plantea que para lograr un verdadero impacto a escala, es esencial combinar evidencia, empatía, adaptación contextual y diseño centrado en el usuario. Porque escalar no es copiar y pegar, sino adaptar sin diluir.

Escalabilidad vs. Adaptabilidad: un falso dilema

Una de las tensiones más importantes es cómo mantener la esencia de una innovación sin perder la sensibilidad al entorno local. Como afirmó Marc Kaeraa: “una solución de tamaño único no sirve para todos los casos”. Por eso, se recomienda identificar los Minimum Viable Innovation Components (MVIC) y permitir adaptaciones periféricas.

Este principio se refuerza con investigaciones recientes. El artículo de Wiltsey Stirman et al. (2024) plantea que las innovaciones deben evaluarse no solo por su efectividad inicial, sino por su capacidad de adaptabilidad, escalabilidad y sostenibilidad (ASaS). También el enfoque del Scaling Scan (CIMMYT, 2023) ofrece herramientas para analizar sistemáticamente si una solución está lista para escalarse con éxito.

 Tecnología como habilitadora del acceso

La IA y la traducción automática son aliadas clave para cerrar brechas de acceso. Como explicó Kaeraa, muchas herramientas vitales no están disponibles en lenguas locales, por lo que estas tecnologías permiten la democratización del conocimiento operativo.

Además, el marco 5D promueve una gestión de innovación basada en datos, con prototipado rápido, evaluación iterativa y enfoque en el usuario (UNICEF, 2023).

 El poder del contexto y los actores locales

Se remarcó el valor de los actores locales como implementadores esenciales. Según Peters et al. (2022), los proyectos de salud global tienen mayor éxito cuando son contextualizados y codiseñados con las comunidades. Ana Prodanovic añadió que el “contexto” no es solo geográfico, sino también político, normativo y de recursos.

El informe del BID Lab (2022) también respalda este enfoque, mostrando cómo las innovaciones más exitosas se escalan cuando se adaptan a las realidades locales sin comprometer sus componentes esenciales.

 Recomendaciones estratégicas

Si trabajas en innovación social, humanitaria o institucional, estas son acciones concretas que puedes aplicar:

  • Identifica los componentes esenciales de tu innovación: lo que no puede modificarse sin perder eficacia.
  • Diseña con flexibilidad estructurada: usa plantillas adaptables, no modelos cerrados.
  • Apóyate en tecnologías emergentes: IA, traducción automática, datos en tiempo real.
  • Reconoce el rol de los actores locales: diseña con ellos, no solo para ellos.
  • Evalúa desde el enfoque ASaS: mide adaptabilidad, escalabilidad y sostenibilidad.
  • Utiliza herramientas de escalamiento estructurado: como el Scaling Scan o marcos de efectividad (BID, 2023).
  • Integra la evaluación como un proceso iterativo: con foco en el aprendizaje adaptativo.

 Conclusión

El marco 5D es mucho más que una guía metodológica. Es una invitación a innovar con empatía, rigor, aprendizaje continuo y visión sistémica. Para quienes trabajan en evaluación o gestión de programas, representa una oportunidad concreta de transformar la manera en que medimos y escalamos soluciones, fomentando un impacto real y sostenible.

📚 Referencias ampliadas

  • Wiltsey Stirman, S., et al. (2024). Advancing the measurement of Adaptability, Scalability, and Sustainability (ASaS) in implementation science. Implementation Science, 19(24). https://doi.org/10.1186/s13012-024-01375-7
  • UNICEF Office of Innovation (2023). The 5D Framework: Managing Innovation for Impact at Scale. United Nations Innovation Network. https://un-two-zero.network/contents/5d-innovation-framework
  • Peters, D. H., Tran, N. T., & Adam, T. (2022). Implementation research in health: A practical guide. WHO Press.
  • BID Lab (2022). Escalando la innovación en el mundo del desarrollo: la experiencia de BID Lab. https://publications.iadb.org/publications/spanish/document/Escalando-la-innovacion-en-el-mundo-del-desarrollo-la-experiencia-de-BID-Lab.pdf
  • CIMMYT (2023). Enfoque sistémico, esencial para escalar innovaciones. https://www.cimmyt.org/es/noticias/enfoque-sistemico-esencial-para-escalar-innovaciones
  • Brookings Institution (2021). Escalamiento de las innovaciones en la educación para lograr un impacto sostenible. https://www.brookings.edu/wp-content/uploads/2021/12/ROSIE_reflection-brief_Spanish.pdf
  • BID (2023). Marco de Efectividad en el Desarrollo. https://cursos.iadb.org/es/programas/olp/areas-tematicas/marco-de-efectividad-en-el-desarrollo

Written by cplysy · Categorized: TripleAD

May 07 2025

Reporting Revolution – 2nd Edition

I’ve decided to build upon my report design book. So, for a limited time, I’m making the working version free again.

Why the revision?

I started writing a new book (code name: Report Like This).

But then I found myself repeating what was already written in The Reporting Revolution. Truth is, that book provides the foundation for how I approach reporting. It’s the mindset behind my approach.

So instead of writing a second book, I’ve decided to expand the little book into a second edition.

My goals for the new edition.

  • Bigger.
  • Better.
  • Cheaper.

Bigger.

I’m going to convert the 5″ by 8″ book to a 6″ by 9″ book. I also plan to add a set of new chapters.

Better.

Illustrations. I think I went a little overboard on the stock photos, so I’m going to replace most of them with hand-drawn illustrations and a few new comics.

More chapters. I’ll go into more depth on reporting tools, reporting products, and some of the key lessons I’ve learned the hard way over the last few years.

Exercises. I plan to add a bunch of DiY exercises throughout the book. If you eventually get this in print, you can actually fill them out inside the book.

Cheaper.

Stuff keeps getting more expensive these days, so I’m going to do something radical. My goal with the new book is to make the print version $10. The only way to do that is to turn it black and white (color costs a lot more to print).

Your Role.

First, download the original book for FREE. Then read it.

As I update the book, I’ll update the download. As of today, the latest version is the full digital version of the original book. That will change over time as I add and update things.

Then, email me (chris@freshspectrum.com) if you have reporting questions you would love for me to cover in the book, things you think I’m missing, or if you need more clarity on anything.

Written by cplysy · Categorized: freshspectrum

May 07 2025

Designing a 2-Page Infographic: NIH Grant Terminations

I ignored my inbox and turned a boring table into a 2-pager.

What’s Inside

  • 0:00 The 2-pager about NIH grant terminations
  • 2:20 Lookup table with Stateface icons
  • 2:38 Original table from the policy brief
  • 2:47 The dataset
  • 2:58 Idea 1: A better table that’s Accessible and accessible
  • 3:22 Idea 2: A static graph or map
  • 3:40 Idea 3: An interactive visualization
  • 3:55 Idea 4: A 2-page infographic
  • 4:06 The call-out boxes with icons at the top
  • 4:12 The finished map
  • 4:30 The finished table
  • 4:42 Color-coding by category
  • 4:51 Big-picture first, then more detailed, then more detailed
  • 5:15 The finished product again
  • 5:29 More ideas for the original policy brief
  • 6:04 Let’s connect

Download the Spreadsheet

It’s here.

Written by cplysy · Categorized: depictdatastudio

May 06 2025

Evaluación y cooperación internacional en tiempos de restricciones: recuperar el rol estratégico de las funciones de evidencia

La cooperación internacional para el desarrollo atraviesa un periodo de transformaciones profundas. Factores como el giro hacia el aislacionismo en la política exterior estadounidense durante la administración Trump, los efectos socioeconómicos de la pandemia de COVID-19, la prolongada crisis en Ucrania y la reciente escalada de violencia en Gaza han provocado una contracción significativa de los flujos de financiamiento. Esta nueva configuración afecta transversalmente a agencias multilaterales, organizaciones no gubernamentales y actores de cooperación bilateral, obligándolos a repensar sus capacidades institucionales.

En este escenario, muchas organizaciones han respondido con estrategias de reducción de costes —incluyendo recortes de personal y disminución de actividades programáticas— para mantener su viabilidad operativa. Aunque comprensibles desde una lógica de eficiencia, estas medidas pueden derivar en un efecto colateral preocupante: la marginalización de la eficacia como criterio estratégico central y el debilitamiento de las funciones de evidencia.

Estas funciones —que incluyen evaluación, monitoreo, análisis de desempeño, estudios temáticos, gestión del conocimiento, investigación aplicada, sistemas de datos y estructuras de aprendizaje organizacional— son esenciales para generar, interpretar y utilizar información útil en la toma de decisiones. Según Newman, Fisher y Shaxson (2012), el fortalecimiento de estas funciones no puede limitarse a una mejora técnica, sino que requiere transformaciones estructurales en capacidades, incentivos, liderazgo y cultura organizativa.

Un aspecto a tener en cuenta es que en muchas organizaciones, la medición del desempeño – a nivel individual, de equipos y organizacional- no es fiable (o, incluso, como se sabe que no es fiable, no se usa o no se puede utilizar para la toma de decisiones). Como indica Green (2024), la proliferación de métricas centradas en productos (outputs) desconectados del impacto real ha debilitado el potencial de estas funciones para orientar el cambio. Este diagnóstico se alinea con la crítica de Natsios (2010) a la “contraburocracia”: un sistema que premia la cuantificación superficial y penaliza la comprensión contextual.

Durante los años de expansión presupuestaria post-pandemia, las funciones de evidencia tuvieron una oportunidad histórica para consolidarse como eje de aprendizaje y adaptación estratégica. Sin embargo, múltiples estudios (Green, 2024; Center for Global Development, 2023) revelan que, en muchos casos, estas funciones no lograron identificar, poner sobre la mesa o romper los cuellos de botella sistémicos ni ejercer una voz crítica frente a las prioridades impuestas externamente.

Este patrón refleja lo que March y Olsen (1989) definieron como complicidad sistémica: las instituciones reconocen los fallos, pero optan por no confrontarlos debido a presiones internas, dependencia financiera o miedo a las consecuencias. En ese marco, la evidencia deja de ser una palanca de mejora y se transforma en un ejercicio ritualizado.

Eyben et al. (2015) y Honig (2022) alertan sobre cómo la presión por mostrar resultados positivos y la subordinación de la evaluación a agendas políticas han erosionado su independencia. Esta desconexión entre producción de evidencia y decisiones estratégicas es lo que Parkhurst (2017) denomina un “gobierno disfuncional de la evidencia”: evidencia generada, pero no gobernada de forma adecuada ni útil.

Pero existen otros enfoques alternativos o complementarios que permiten recuperar el potencial transformador de estas funciones. Andrews, Pritchett y Woolcock (2017) plantean la necesidad de construir capacidades desde el contexto, priorizando la solución de problemas reales y no la aplicación de recetas estándar. En esa línea, Patton (2011) y Bamberger et al. (2015) impulsan evaluaciones adaptativas, centradas en el aprendizaje, especialmente útiles en contextos inciertos y dinámicos. La OCDE (2022), por su parte, ha actualizado sus criterios de evaluación precisamente para fomentar mayor utilidad, flexibilidad y adecuación contextual.

Finalmente, Lafortune, Fuller y Schmidt-Traub (2018) demuestran que varios países están avanzando en la institucionalización de las funciones de evidencia como parte integral de sus sistemas de gobernanza pública, no como un requisito externo, sino como parte de una arquitectura estratégica orientada al cambio.

Funciones de evidencia en riesgo: Barreras estructurales que aseguran su debilidad

La precariedad de las funciones de evidencia no es un accidente coyuntural, sino el resultado de barreras estructurales persistentes, tanto a nivel del sistema de cooperación como de su funcionamiento interno:

Barreras del sistema de cooperación internacional

  • Fragmentación entre actores (bilaterales, multilaterales, ONGD): Lógicas y sistemas de rendición no alineados generan duplicaciones y dificultan el aprendizaje colectivo (OCDE, 2022; Eyben et al., 2015).
  • Dependencia de prioridades políticas de los donantes: Las agendas de evidencia quedan subordinadas a calendarios financieros y geopolíticos externos (Green, 2024; Parkhurst, 2017).
  • Éxito como fetiche institucional: Se valora lo que puede medirse fácil y positivamente, más que lo que es relevante pero complejo o incómodo (Honig, 2022; Natsios, 2010).

Barreras internas de las funciones de evidencia

  • Baja integración con la toma de decisiones estratégicas: Muchas unidades de M&E tienen baja incidencia real (Newman et al., 2012).
  • Diseño institucional débil: Ausencia de gobernanza clara, recursos sostenibles y alineación con planificación (Lafortune et al., 2018).
  • Capacidades limitadas: Falta de dominio en análisis cualitativo, evaluaciones formativas o enfoques sistémicos (Bamberger et al., 2015; Woolcock, 2013).

Barreras específicas de la función de evaluación

  • Débil independencia frente a las unidades implementadoras (Eyben et al., 2015).
  • Uso ritualizado de informes sin consecuencias reales (Parkhurst, 2017).
  • Déficit de apropiación local en los procesos evaluativos (Roche, 1999).

Crisis y Cambio: ¿Oportunidad de Reforma o Gatopardismo (cambiar algo para que nada cambie)?

Frente a este diagnóstico, la coyuntura puede leerse de dos maneras opuestas:

Escenario 1: Adaptación regresiva (gatopardismo)

  • Recortes que debilitan aún más las funciones de evidencia.
  • Simplificación metodológica que refuerza usos administrativos de la evaluación.
  • Mayor centralización del poder sobre la evidencia, sin abrir espacio al disenso o la crítica.

Resultado: que “todo cambie para que nada cambie”.

Escenario 2: Punto de inflexión para la reforma

  • Fortalecimiento de las funciones de evidencia como núcleo estratégico organizacional.
  • Creación de sistemas híbridos de evidencia, integrando datos, narrativas, participación y adaptabilidad.
  • Redefinición de incentivos hacia el uso transformador y no ritual de la evidencia.

Estrategias para evitar el gatopardismo

  • No reducir presupuestos críticos sin evaluar su impacto estratégico.
  • Asegurar el liderazgo político del uso de evidencia, desde los más altos niveles.
  • Crear espacios para el aprendizaje institucional honesto, incluso incómodo.

¿Será esta crisis un punto de quiebre para reconfigurar las funciones de evidencia como herramientas de transformación institucional, o simplemente una etapa más de ajustes superficiales que perpetúan la disfunción?

Aprender de los Errores: 10 Principios para Reconstruir las Funciones de Evidencia

Aquí tienes una lista integrada que fusiona y armoniza el contenido de ambas versiones, manteniendo la profundidad conceptual de la segunda lista y la claridad de la primera:

Aprender de los Errores: 10 Principios para Reconstruir las Funciones de Evidencia (Versión Integrada)

  1. Garantizar la independencia institucional de las unidades responsables de la evidencia, incluyendo su autonomía operativa y financiera (Eyben et al., 2015).
  2. Priorizar la medición de procesos, resultados e impactos, más allá de la entrega de productos (outputs) (Natsios, 2010).
  3. Adoptar enfoques adaptativos y sensibles a la complejidad y al contexto (Patton, 2011; Bamberger et al., 2015).
  4. Identificar y visibilizar cuellos de botella sistémicos, incluso si resultan políticamente incómodos, evitando la autocensura (Green, 2024).
  5. Formar equipos con competencias políticas y técnicas, capaces de comprender dinámicas internas de poder (Eyben et al., 2015).
  6. Fomentar culturas institucionales orientadas al aprendizaje, no solo al cumplimiento o control (OECD DAC EvalNet, 2023).
  7. Utilizar métodos cualitativos y narrativos, como complemento al análisis cuantitativo (Woolcock, 2003).
  8. Incluir las voces de actores locales y destinatarios de las intervenciones (Roche, 1999).
  9. Reforzar la calidad y transparencia de los datos, utilizados para informar decisiones (Sandefur & Glassman, 2015).
  10. Situar las funciones de evidencia en el núcleo estratégico del diseño institucional, integrándolas al centro de la organización (Lafortune et al., 2018).

Conclusión

La evaluación -como parte central de las funciones de evidencia– debe recuperar su potencia crítica y su rol estratégico.

En tiempos de restricciones, el reto no es sobrevivir haciendo menos, sino reformular cómo hacemos lo esencial para que importe más.

Fortalecer estas funciones no es solo una cuestión técnica: es una decisión política de alto impacto para el futuro de la cooperación.

Referencias

  • Andrews, M., Pritchett, L., & Woolcock, M. (2017). Building State Capability: Evidence, Analysis, Action. Oxford University Press.
  • Bamberger, M., Vaessen, J., & Raimondo, E. (2015). Dealing with Complexity in Development Evaluation. SAGE.
  • Center for Global Development (2023). The Post-COVID Shrinking of Aid and its Impact on Accountability Mechanisms.
  • Eyben, R., Guijt, I., Roche, C., & Shutt, C. (2015). The Politics of Evidence and Results in International Development. Routledge.
  • Green, D. (2024). How to be a Critical Friend: The Role of Evaluation in a Shrinking Aid World. Oxfam Blog.
  • Honig, D. (2022). Navigation by Judgment: Why and When Top-Down Management of Foreign Aid Doesn’t Work. Oxford University Press.
  • Lafortune, G., Fuller, G., & Schmidt-Traub, G. (2018). How Evidence-Based is Public Policy? SDSN.
  • March, J.G., & Olsen, J.P. (1989). Rediscovering Institutions: The Organizational Basis of Politics. Free Press.
  • Natsios, A. (2010). The Clash of the Counter-bureaucracy and Development. CGD Essay.
  • Newman, K., Fisher, C., & Shaxson, L. (2012). Stimulating Demand for Evidence-Based Policy-Making. IDS Bulletin.
  • OECD (2022). Evaluation Criteria: Adapted Definitions and Principles for Use. OECD Publishing.
  • OECD DAC EvalNet (2023). Strengthening the Use of Evidence in Fragile and Conflict-Affected Contexts.
  • Parkhurst, J. (2017). The Politics of Evidence: From Evidence-Based Policy to the Good Governance of Evidence. Routledge.
  • Patton, M. Q. (2011). Developmental Evaluation: Applying Complexity Concepts to Enhance Innovation and Use. Guilford Press.
  • Roche, C. (1999). Impact Assessment for Development Agencies: Learning to Value Change. Oxfam.
  • Sandefur, J., & Glassman, A. (2015). The Political Economy of Bad Data. Journal of Development Studies.
  • Woolcock, M. (2013). Using Case Studies to Explore the External Validity of Complex Development Interventions. Evaluation, 19(3), 229–248.

Written by cplysy · Categorized: TripleAD

  • « Go to Previous Page
  • Go to page 1
  • Interim pages omitted …
  • Go to page 12
  • Go to page 13
  • Go to page 14
  • Go to page 15
  • Go to page 16
  • Interim pages omitted …
  • Go to page 310
  • Go to Next Page »

Footer

Follow our Work

The easiest way to stay connected to our work is to join our newsletter. You’ll get updates on projects, learn about new events, and hear stories from those evaluators whom the field continues to actively exclude and erase.

Get Updates

Want to take further action or join a pod? Click here to learn more.

Copyright © 2026 · The May 13 Group · Log in

en English
af Afrikaanssq Shqipam አማርኛar العربيةhy Հայերենaz Azərbaycan dilieu Euskarabe Беларуская моваbn বাংলাbs Bosanskibg Българскиca Catalàceb Cebuanony Chichewazh-CN 简体中文zh-TW 繁體中文co Corsuhr Hrvatskics Čeština‎da Dansknl Nederlandsen Englisheo Esperantoet Eestitl Filipinofi Suomifr Françaisfy Fryskgl Galegoka ქართულიde Deutschel Ελληνικάgu ગુજરાતીht Kreyol ayisyenha Harshen Hausahaw Ōlelo Hawaiʻiiw עִבְרִיתhi हिन्दीhmn Hmonghu Magyaris Íslenskaig Igboid Bahasa Indonesiaga Gaeilgeit Italianoja 日本語jw Basa Jawakn ಕನ್ನಡkk Қазақ тіліkm ភាសាខ្មែរko 한국어ku كوردی‎ky Кыргызчаlo ພາສາລາວla Latinlv Latviešu valodalt Lietuvių kalbalb Lëtzebuergeschmk Македонски јазикmg Malagasyms Bahasa Melayuml മലയാളംmt Maltesemi Te Reo Māorimr मराठीmn Монголmy ဗမာစာne नेपालीno Norsk bokmålps پښتوfa فارسیpl Polskipt Portuguêspa ਪੰਜਾਬੀro Românăru Русскийsm Samoangd Gàidhligsr Српски језикst Sesothosn Shonasd سنڌيsi සිංහලsk Slovenčinasl Slovenščinaso Afsoomaalies Españolsu Basa Sundasw Kiswahilisv Svenskatg Тоҷикӣta தமிழ்te తెలుగుth ไทยtr Türkçeuk Українськаur اردوuz O‘zbekchavi Tiếng Việtcy Cymraegxh isiXhosayi יידישyo Yorùbázu Zulu