• Skip to main content
  • Skip to footer
  • Home

The May 13 Group

the next day for evaluation

  • Get Involved
  • Our Work
  • About Us
You are here: Home / Archives for allblogs

allblogs

Jun 25 2025

Try This: The Cross-Sector Collaboration Reset

Feeling out of sync with your partners? This 90-minute reset activity will help your cross-sector collaboration reflect, reconnect, and realign for deeper impact.

The post Try This: The Cross-Sector Collaboration Reset appeared first on Nicole Clark Consulting.

Written by cplysy · Categorized: nicoleclark

Jun 22 2025

Reimaginando la evaluación en tiempos de cambio

En tiempos de incertidumbre estructural y cuestionamiento o agotamiento de modelos, tanto la cooperación internacional como su aparato evaluativo atraviesan una fase de transición profunda. Este post esta dentro de la serie «Repensar la ayuda». Como analicé en «Liminalidad: oportunidad para reformular la ayuda» (Rodríguez Ariza, 2025a), nos encontramos en un momento liminal, en el sentido propuesto por Victor Turner: un umbral donde lo anterior se cuestiona, erosiona, agota o descompone sin que lo nuevo esté plenamente definido. Esta zona intermedia, más que un vacío, puede ser un campo fértil de reinvención. ¿Qué implica evaluar desde este umbral? ¿Qué horizontes se abren cuando las estructuras pierden su aura de inevitabilidad?

Una variable crítica en este escenario es la irrupción de la inteligencia artificial (IA) en el campo evaluativo. Su despliegue puede representar una palanca de renovación o, por el contrario, consolidar los sesgos y ritualismos de los modelos cuestionados o agotados. Evaluar desde el umbral exige también repensar el lugar de la IA en los procesos evaluativos, desde la generación de evidencia hasta la rendición de cuentas y la deliberación pública.

1. ¿Qué está en crisis? Erosión o desgaste de paradigmas

La evaluación dominante, anclada en la neutralidad tecnocrática, comienza a mostrar su cuestionamiento o agotamiento. Modelos centrados sobre todo en resultados cuantificables, estándares universales y lógicas verticales ya no responden a contextos de injusticia estructural ni a relaciones de poder desiguales. En «Evaluación y cooperación en tiempos de restricciones» (Rodríguez Ariza, 2025b), abordé cómo estas lógicas han colonizado el campo, desplazando el sentido público y deliberativo de la evaluación. La crisis no es solo metodológica y técnica: es ética, epistemológica y política.

Asimismo, como desarrollé en «Reiniciar el desarrollo» (Rodríguez Ariza, 2025c), esta crisis implica también una pérdida de legitimidad institucional. Las estructuras de ayuda se perciben rígidas, lejanas o desconectadas de las prioridades reales. En ese marco, la evaluación no puede seguir (a) siendo una herramienta que señala más los síntomas que las causas últimas u originarias, (b) centrada en aspectos más operativos y/o periféricos que estructurales. Debe dejar de ser un instrumento de verificación burocrática para transformarse en vehículo de reconstrucción de confianza, legitimidad y pertinencia social.

La IA se inserta aquí como catalizador ambiguo. Puede contribuir a la transparencia y eficiencia, pero también perpetuar automatismos, opacidad algorítmica o una “gobernanza sin sujeto”. Sin dirección crítica, podría reforzar una evaluación despolitizada, funcionalista y reduccionista.

2. Crítica estructural al sistema evaluativo

Una parte del sistema actual de evaluación funciona como un dispositivo simbólico más que como una herramienta transformadora. Autores como Michael Power (1997) en The Audit Society, y Dahler-Larsen (2011) en The Evaluation Society, han demostrado cómo las evaluaciones tienden a convertirse en rituales de rendición de cuentas, en algunos casos de gran rigor y calidad técnica, pero en muchas ocasiones sin utilidad real. Este ritualismo genera a menudo:

  • Evaluaciones costosas, pero de baja utilidad práctica.
  • Informes desconectados de la toma de decisiones.
  • Poca participación significativa de actores clave.
  • Reificación de lo cuantificable sobre lo relevante.

A ello se suma el fenómeno del adanismo evaluativo: movimientos o llamadas a la renovación a través de propuestas que se dicen innovadoras pero que, en realidad, repiten ideas ya existentes, muchas de ellas desde hace decenios, pero sin aplicarlas adecuadamente. A pesar de décadas de literatura sobre evaluación transformadora, participativa, enfocada al uso o basada en justicia social (Mertens, 2009; Patton, 2011; Greene, 2007), estos enfoques rara vez se implementan por falta de voluntad política, recursos o estructuras habilitantes. El enfoque al uso o a la utilización tiene más de 50 años. Nancy Fraser (2013) y Ruth Levitas (2013) ya advertían cómo ciertos marcos transformadores quedan relegados por el mainstream tecnocrático.

Incluso las propias oficinas de evaluación a veces reproducen las lógicas que deberían cuestionar: jerarquías rígidas, baja accountability o captura institucional. Las oficinas de evaluación, en ocasiones son jerárquicas y desconectadas de la planificación, replicando las lógicas burocráticas que dicen evaluar. Estudios recientes han documentado cómo estas unidades suelen operar en silos, con débil influencia estratégica y bajo impacto real en las decisiones políticas (ITAD, 2021; OECD DAC, 2022). Además, sufren de “accountability blanda”, reportando a estructuras no técnicas o desvinculadas del uso de resultados (como los Boards) (Patton, 2011; Segone, 2010).

Experiencias como las de UN Women, UNICEF o la Global Evaluation Initiative han señalado la necesidad de modelos institucionales más híbridos, que combinen independencia técnica con relevancia estratégica y anclaje en estructuras deliberativas. También se requiere avanzar hacia espacios de evaluación que actúen como nodos de colaboración y creación conjunta (Cabaj & Weaver, 2016), con capacidad de escucha institucional, co-diseño y aprendizaje organizacional.

Este rediseño institucional no puede recaer únicamente en reformas normativas: debe venir acompañado de cambios culturales y tecnológicos. La IA puede contribuir a mejorar la trazabilidad, transparencia y coordinación de sistemas evaluativos, pero solo si está al servicio de nuevas lógicas organizativas y de gobernanza, evitando reforzar estructuras verticales y opacas (Bamberger, 2022; Sanderson & De Silva, 2022).

Como planteé en «Reiniciar el desarrollo» (Rodríguez Ariza, 2025c), esta situación erosiona la legitimidad pública y limita el potencial democrático de la evaluación.

3. Ejes analíticos para reimaginar la evaluación

1.Crítica al adanismo evaluativo: Denuncia la constante producción de “nuevas” metodologías sin haberse aplicado las anteriores. Por ejemplo, Stake (1983) y House (1993) ya ofrecían modelos ricos, pero poco implementados. La revisión histórica es clave para evitar falsas innovaciones. La IA puede tanto rescatar conocimiento olvidado como reforzar esta obsesión por “lo nuevo”.

2.Evaluación como práctica política y estética: Desde Puig de la Bellacasa (2017) y Sultana (2021), hasta Greene (2007), se propone una evaluación que escuche, cuide y afecte. Lo sensorial, lo narrativo y lo afectivo son dimensiones legítimas. La IA, aquí, enfrenta límites claros: ¿cómo cuantificar la afectividad o representar el cuidado?

3.Revisión crítica de estructuras evaluativas: Las oficinas de evaluación, a veces jerárquicas y desconectadas, replican las lógicas burocráticas que dicen evaluar. Requieren ser reformuladas como espacios de colaboración, trabajo y creación conjunta (togetherness), dialógicos, abiertos y adaptativos. Las soluciones tecnológicas deben acompañarse de rediseños institucionales profundos, según confirman diversas experiencias institucionales y estudios especializados.

4.Evaluación en tiempos de transición: El concepto de liminalidad (Turner, 1969; Rodríguez Ariza, 2025a) permite operar desde la ambigüedad y contingencia, abriendo espacio para negociaciones deliberativas y futuros emergentes. La IA puede ayudar a modelar escenarios y simular alternativas, pero no sustituye el juicio ético ni la deliberación política.

5.Hacia una política de evaluación posburocrática: Inspirados en Patton (2011) y Miraftab (2016), se requiere rediseñar la función evaluativa desde instituciones más porosas, distribuidas y capaces de articularse con actores locales. Aquí, la IA puede ser útil para facilitar diálogos horizontales, solo si se gobierna con criterios de justicia algorítmica.

    4. Orientaciones operacionales transformadoras

    Estas orientaciones responden directamente a los ejes críticos anteriores, formando una hoja de ruta para reconfigurar el sistema evaluativo desde su raíz hasta su operación concreta.

    (Eje 1) Superar el adanismo evaluativo:

    • En lo posible, conocer nuestro pasado como comunidad evaluativa, recuperar y aplicar enfoques existentes (como los de Stake y House) y evitar la reinvención superficial, pero que no llega a aprender de aciertos y errores pasados e incorporar o a poner en practica enfoques anteriores.
    • IA: puede sistematizar e implementar buenas prácticas acumuladas si se orienta a tal fin.

    (Eje 2) Integrar la dimensión estética y afectiva:

    • Incorporar metodologías narrativas, evaluación basada en el cuidado, escucha profunda.
    • IA: útil en visualización, pero limitada para captar dimensiones afectivas o contextuales.

    (Eje 3) Reformular estructuras evaluativas:

    • Fomentar accountability interna (vertical y horizontal), romper silos y promover el diálogo estratégico dentro de y entre las funciones de planificación, seguimiento y evaluación.
    • IA: riesgo de concentración algorítmica de decisiones si no se democratiza su uso.

    (Eje 4) Activar evaluaciones descentralizadas y situadas:

    • Integrar, potenciar y poner en valor funciones evaluativas regionales y nacionales, más cercanas a los efectos transformadores.
    • IA: puede facilitar el análisis distribuido y contextualizado, si se adapta al entorno local.

    (Eje 5) Fortalecer capacidades colaborativas y de diseño sistémico:

    • Impulsar enfoques como Collective Impact (Kania & Kramer), reducir la ritualidad colaborativa.
    • IA: puede facilitar coordinación, pero no garantiza voluntad política ni apropiación / ownership real.

    Tabla de vínculos entre ejes y orientaciones

    Eje Analítico Orientación Operacional Principal Efecto estructural propuesto Rol de la IA
    1. Crítica al adanismo evaluativo Recuperar y aplicar enfoques pasados relevantes Coherencia histórica, evitar modas metodológicas efímeras Puede rescatar y aplicar conocimiento existente o promover modas acríticas
    2. Evaluación como práctica política y estética Incorporar narrativas, afectos y cuidado como dimensiones legítimas Evaluaciones más humanas, resonantes y transformadoras Potencia lo visual, pero puede invisibilizar lo sensible y no cuantificable
    3. Revisión crítica de estructuras evaluativas Fortalecer accountability, evitar silos, fomentar diálogo institucional Oficinas evaluativas más transparentes y democráticas Mejora la transparencia, pero puede concentrar poder algorítmico
    4. Evaluación en tiempos de transición Diseñar evaluaciones abiertas a ambigüedad y aprendizaje colectivo Capacidad adaptativa ante incertidumbre y contextos dinámicos Ayuda a simular escenarios futuros, pero tiende a estandarizar respuestas
    5. Política de evaluación posburocrática Promover colaboración real, descentralización y co-diseño con actores Evaluación estratégica, legitimada socialmente y más eficaz Facilita coordinación, pero puede tecnocratizar la participación

    5. Conclusión: transitar el umbral como gesto transformador

    Los umbrales siempre han sido espacios de vulnerabilidad y posibilidad. Evaluar desde la liminalidad no implica suspender el juicio, sino reformularlo desde marcos más justos, plurales y abiertos al devenir. Como he señalado, «evaluar en tiempos liminales no es aplicar un checklist, sino acompañar una transición de paradigmas».

    Este llamado interpela especialmente a evaluadoras y evaluadores: se requiere valentía profesional, imaginación crítica y voluntad de diseñar evaluaciones que estén a la altura de los desafíos emergentes.

    Referencias

    Bamberger, M. (2022). Artificial Intelligence and the Future of Evaluation. BetterEvaluation.

    Cabaj, M., & Weaver, L. (2016). Collective Impact 3.0: An evolving framework for community change. Tamarack Institute.

    Carden, F. (2009). Knowledge to Policy: Making the Most of Development Research. IDRC.

    Dahler-Larsen, P. (2011). The Evaluation Society. Stanford University Press.

    EVALSDGs. (2020). Evaluation to Accelerate Progress towards the SDGs.

    Floridi, L. (2019). Establishing the rules for digital ethics. Nature.

    Fraser, N. (2013). Fortunes of Feminism. Verso.

    Greene, J. C. (2007). Mixed Methods in Social Inquiry. Jossey-Bass.

    House, E. R. (1993). Professional Evaluation. Sage.

    ITAD. (2021). Rethinking Evaluation Use. ITAD.

    Kania, J., & Kramer, M. (2011, 2022). Collective Impact. Stanford Social Innovation Review.

    Levitas, R. (2013). Utopia as Method. Palgrave Macmillan.

    Miraftab, F. (2016). Insurgent Planning: Situating Radical Planning. In Routledge Handbook of Planning Theory.

    OECD DAC. (2022). Principles of Development Evaluation.

    Patton, M. Q. (2011). Developmental Evaluation. Guilford Press.

    Power, M. (1997). The Audit Society: Rituals of Verification. Oxford University Press.

    Preskill, H. (2014). Learning Culture and Collective Impact. FSG.

    Puig de la Bellacasa, M. (2017). Matters of Care: Speculative Ethics in More than Human Worlds. University of Minnesota Press.

    Rodríguez Ariza, C. (2025a). Liminalidad: oportunidad para reformular la ayuda. TripleAD.

    Rodríguez Ariza, C. (2025b). Evaluación y cooperación en tiempos de restricciones. TripleAD.

    Rodríguez Ariza, C. (2025c). Reiniciar el desarrollo. TripleAD.

    Sanderson, I., & De Silva, M. J. (2022). Ethics of AI in Development Evaluation. IDS Working Paper.

    Segone, M. (Ed.) (2010). From Policies to Results: Developing Capacities for Country Monitoring and Evaluation Systems. UNICEF.

    Stake, R. E. (1983). Program Evaluation, Particularly Responsive Evaluation. Western Michigan University.

    Sultana, F. (2021). Climate Change, Racism and Feminist Geography. Dialogues in Human Geography.

    Turner, V. (1969). The Ritual Process: Structure and Anti-Structure. Aldine.

    Zenda Ofir. (2023). Evaluation in Turbulent Times. African Evaluation Journal.

    Nota: Este artículo fue redactado con apoyo de inteligencia artificial, que también sugirió algunas de las referencias bibliográficas incluidas. Sin embargo, las ideas centrales, el enfoque y la selección final del contenido son completamente mías

    Written by cplysy · Categorized: TripleAD

    Jun 18 2025

    Adjusting Language in a Shifting Political Landscape

    By Shelli Golson-Mickens and Alissa Marchant

    Across the country, those committed to equity are facing a chilling reality: the language and practices of diversity, equity, and inclusion are being politicized, constrained, and in many places, outright banned. Like many others, we’ve felt the worry, grief, and disorientation these shifts bring. Yet, equity work is not disappearing — it’s adapting. In this moment, we’re seeing a wave of creativity, pragmatism, and values-based innovation from leaders who find new ways to continue pushing for justice.

    The context in which we work has changed so quickly since we’ve co-authored the Equitable Communications Guide with our Innovation Network colleagues in 2023! Recently, I (Shelli Golson-Mickens) have been reflecting deeply on those changes and returning to the guide — not with fresh eyes, but with refreshed ones. Eyes that are tired from my personal experience navigating resistance, yet still hopeful about the possibilities that can emerge from this challenge. And I (Alissa Marchant) have been looking for answers, in and outside of our guide, for reframing the horrifying narratives of hate that seem to dehumanize certain groups in our country. We co-authored this blog together in the collective “we” and specify who is speaking when we are sharing a unique perspective. We are both exploring what it looks like to stay committed to equity when the landscape around us is perpetually unstable. And we’re not alone — we’ve tapped into conversations others around the field are having. Here’s what we are learning.

    Lessons Learned

    Speak Strategically Without Losing Substance

    I (Shelli) was recently inspired by Dr. Julie Sweetland, who shared the reminder, “Messaging is not about saying what’s most true, it’s about saying what’s most strategic.” In conservative contexts, this might mean choosing language that resonates with shared values — like fairness, opportunity, and local control — rather than leading with terms like “equity” or “structural racism,” which can sometimes trigger resistance. Sweetland calls this “values-forward communication,” and it’s one way equity practitioners are still doing the work — just with more intention around framing.

    For example, instead of talking about “equity in data,” some advocates are discussing “complete and accurate data” or “community-informed insights,” emphasizing the practical benefits of inclusive practices without abandoning the principles behind them. Dr. Sweetland’s framework resonates deeply with me on a personal level. It reflects the lessons I received growing up in a family that emphasized using language as a tool for advancing community goals. In our conservative context, with our Black identities, moving toward justice wasn’t optional. We were taught to say what needed to be said to achieve our outcome. My parents and grandparents didn’t have a formal title for this communication, but the strategy was the same: communicate with purpose, rooted in the needs of the community.

    This strategy continues to resonate. The goal is not to water down equity — it’s to keep momentum in the face of opposition.

    Shift from Problem-Fixers to Community-Builders

    I (Alissa) had an aha-moment when I read the recent Stanford Social Innovation Review article, “From Fixers to Builders.” I’ve known about “asset framing” for decades — lifting up stories of community visioning, mutual aid, and transformative solutions already taking root. When I was in graduate school, my program called this using a “strengths-based perspective.”

    What felt new was applying asset framing to systems, and not just to people. I began to reflect on all the times I complained about the shortcomings of our government and societal issues; while there is absolutely space for improvement, these systems can also be part of our solutions. By only pointing out flaws, had I been contributing to a narrative that there was nothing worth saving about these institutions, a narrative that has recently culminated in shocking government cuts and elimination of supports for our most vulnerable by DOGE and the Trump administration? I believe that problems at scale require solutions at scale, and that asset-framing at the systems level can help us identify what those solutions can be.

    Including positive framing for our institutions doesn’t mean ignoring harm. But it does mean pairing harms with successes and potential remedies. Asset-based framing can help shift public understanding of who holds knowledge and power and invite more people to imagine themselves as part of the solution.

    Double Down on Community Collaboration

    We are in a time of uncertainty, and like us, some organizations are reinforcing their commitment to co-creation and shared storytelling. When we look again at the lessons in the Equitable Communications Guide through the lens of today’s challenging political environment, we think most important is to:

    · Involve community in crafting narratives. No one understands the risk of communicating evaluation findings (good and bad) as well as those who contributed data to our evaluations. They can tell us whether there are findings that can be weaponized by opposition, and how we can best get the information across without putting the cause at risk.

    · Create space for dialogue, not just dissemination. We strive to co-learn with our partners by inviting questions and including them in interpretation. Through shared learning we build trust, foster understanding, and stay grounded in the realities of those most affected by our work.

    · Protect anonymity and trust. Suddenly, data that identifies who was involved in advocacy feels sensitive. We’re rethinking data privacy and adding extra controls. This is even more urgent for data related to LGBTQ+ people, Black activists, and other groups who are being targeted in this political context.

    Honor the Emotional Weight of Strategic Shifts

    These adaptive strategies, while necessary, are not without cost — especially for people from marginalized communities. It can feel painful, even dehumanizing, to navigate spaces where your lived experience must be softened or strategically reframed just to be heard or supported. For many, myself (Shelli) included, the idea of avoiding explicit terms like “racism” or “equity” to gain traction can feel like erasure. This feeling is real. We want to name and honor the emotional labor involved in making these shifts. The work of narrative strategy isn’t about silencing truth, though it can feel that way — it’s about choosing how to speak truth in ways that preserve progress and keep the door open for transformative change. Those who are carrying this burden while still pushing the work forward, we see you and I feel you.

    Rad Resources

    1. The Equitable Communications Guide. Our guide draws from cross-disciplinary research to offer practical strategies for communicating data findings equitably. In the current political climate — this guide is more relevant than ever. It’s a reminder that equitable communication is about so much more than word choice, it’s about relationship-building, trust, and intentional framing.

    2. Talking Data Equity with Julie Sweetland. In a We All Count Talking Data Equity, Dr. Julie Sweetland of the FrameWorks Institute shared values-driven guidance for communicating about equity in politically charged environments. She emphasized that messaging is not just about saying what is most accurate, but about saying what is most strategic, using “values-forward communication.”

    3. From Fixers to Builders. In this SSIR article, Nayantara Sen and Sonya Renee Taylor call on social change leaders to move beyond problem-centered narratives to stories rooted in vision, agency, and possibility.


    Adjusting Language in a Shifting Political Landscape was originally published in InnovationNetwork on Medium, where people are continuing the conversation by highlighting and responding to this story.

    Written by cplysy · Categorized: innovationnet

    Jun 18 2025

    Why We Keep Trying: The Case for Cross-Sector Collaboration

    It’s challenging and it takes longer. Cross-sector collaboration asks more of us—but it gives more back.

    The post Why We Keep Trying: The Case for Cross-Sector Collaboration appeared first on Nicole Clark Consulting.

    Written by cplysy · Categorized: nicoleclark

    Jun 14 2025

    Repensar la validez en evaluación: hacia un paradigma crítico, situado y transformador

    1.Introducción

    En tiempos marcados por crisis ecológicas, desigualdades estructurales y disputas epistémicas sobre qué cuenta como conocimiento válido, la evaluación enfrenta una encrucijada histórica. Ya no basta con identificar “qué funciona”; debemos preguntarnos también cómo, para quién y en qué condiciones funciona, y bajo qué marcos epistémicos, culturales y políticos se construye ese juicio.

    La validez en evaluación, tradicionalmente entendida como una dimensión técnica, se transforma en este contexto en una categoría relacional, ética y situada. Este texto propone una relectura integral y crítica de las formas de validez, integrando sus expresiones clásicas con nuevos aportes emergentes desde perspectivas decoloniales, feministas, participativas y ecológicas.

    2.Fundamentos teóricos: de la neutralidad al compromiso epistemológico

    Los aportes desarrollados aquí se fundamentan en un corpus diverso que incluye la crítica pospositivista a la neutralidad del conocimiento (Schwandt, 2009; Patton, 2011), las epistemologías del Sur (Sousa Santos, 2018), la evaluación transformativa (Mertens, 2009) y la práctica culturalmente receptiva (Hood, 2009; Chilisa, 2012). También se apoyan en enfoques de sistemas complejos (Greene, 2007; Patton, 2011) y pedagogías críticas como la de Freire (1970), así como en evaluaciones participativas con base en justicia social (Cousins & Whitmore, 1998; Mark & Henry, 2004).

    Desde esta perspectiva surge la idea de validación crítica: un proceso dialógico, situado y plural que reconoce las tensiones entre formas de validez y busca equilibrarlas en función del propósito evaluativo y el contexto sociopolítico.

    3.Las valideces: clásicas y críticas

    3.1.Las valideces clásicas: continuidad necesaria con revisión crítica

    Validez interna

    Enfocada en la relación causal entre intervención y resultados, es central en diseños experimentales (Shadish et al., 2002; Gertler et al., 2016). No obstante, puede omitir factores contextuales o dinámicas de poder, como han señalado evaluaciones realistas (Pawson & Tilley, 1997).

    Validez externa

    Remite a la generalización de resultados. Investigaciones como la de Vivalt (2020) muestran la variabilidad de efectos cuando se replican programas en contextos distintos. Cartwright & Hardie (2012) advierten contra la ilusión de universalidad.

    Validez del constructo

    Se cuestiona cuando se reduce un concepto complejo a un indicador único. Por ejemplo, medir “empoderamiento” solo con ingresos invisibiliza la agencia simbólica o relacional (Patton, 2015; Schwandt, 2009).

    Validez del análisis de datos

    Una interpretación rigurosa, triangulada y desagregada de los datos es esencial. La ausencia de análisis interseccional compromete esta validez (Greene, 2007; UNEG, 2016).

    3.2. Valideces críticas: ampliando el marco desde la justicia epistémica

    Validez epistémica / decolonial

    Cuestiona la imposición de marcos epistemológicos únicos. Inspirada en Sousa Santos (2018) y Chilisa (2012), propone integrar saberes indígenas, comunitarios y subalternos.

    Validez cultural

    La evaluación debe resonar culturalmente con los participantes. Hood (2009) enfatiza la importancia de procesos y lenguajes que no reproduzcan asimetrías coloniales.

    Validez ética

    Más allá de la protección formal de derechos, se trata de respeto, consentimiento informado, devolución de resultados y cuidado relacional (LaFrance & Nichols, 2010; UNEG, 2016).

    Validez utilitaria

    Inspirada por Patton (2011), esta validez enfatiza la acción, la mejora continua y la utilidad de los hallazgos en la toma de decisiones reales.

    Validez ecológica

    Articulada con el pensamiento de Bronfenbrenner (1977), esta forma de validez exige considerar las condiciones ambientales y materiales que afectan la implementación y resultados.

    Validez política

    Toda evaluación está imbricada en relaciones de poder. Mark & Henry (2004) argumentan que las evaluaciones pueden tanto reforzar como transformar esas estructuras.

    4.Tensiones entre valideces: conflicto, negociación y el arte del equilibrio

    En la práctica evaluativa contemporánea, las diversas formas de validez pueden entrar en conflicto. Estos conflictos no son únicamente técnicos, sino también epistemológicos, políticos y culturales. Por ejemplo, privilegiar la validez interna mediante diseños altamente controlados puede implicar excluir o neutralizar el contexto real, debilitando la validez ecológica y epistémica (Patton, 2011; Chilisa, 2012). La búsqueda de comparabilidad, asociada a la validez externa, puede invisibilizar dinámicas locales cruciales (LaFrance & Nichols, 2010).

    Asimismo, una evaluación que maximiza su validez política, al alinearse con intereses de gobierno o agencias, puede comprometer su independencia y dañar su validez ética y utilitaria. Desde enfoques como la evaluación transformativa (Mertens, 2009) o la evaluación para la equidad (Hood, 2009), se insiste en avanzar hacia marcos de validación crítica, donde los conflictos se expliciten y se gestionen deliberativamente.

    El reto no es elegir una validez sobre otra, sino encontrar equilibrios situados y adaptativos, en los que el propósito evaluativo, los actores involucrados y el contexto determinen qué forma de validez debe priorizarse, sin excluir las demás. Para ello, se proponen herramientas como:

    • Matrices de validación integrada, que explicitan las tensiones y justifican decisiones metodológicas.
    • Diálogos participativos, que permiten identificar qué forma de validez es más pertinente.
    • Sistemas de aprendizaje evaluativo continuo, donde las prioridades se revisan y adaptan con el tiempo.

    5. Recomendaciones metodológicas para una evaluación transformadora

    1. Marco metodológico reflexivo
      Incorporar un enfoque que articule análisis documental, etnográfico y de revisión crítica de literatura. Este enfoque legitima las decisiones metodológicas y conecta teoría y práctica (Patton, 2011; Schwandt, 2009).
    2. Casos empíricos contextualizados
      Integrar ejemplos prácticos en educación intercultural, salud comunitaria y justicia ambiental que ilustren tensiones evaluativas:
      • Educación intercultural: tensión entre validez epistémica y constructo.
      • Salud rural: conflicto entre validez interna y ética.
      • Políticas climáticas: contradicción entre validez ecológica y utilitaria.
    3. Profundización teórica
      Ampliar las referencias a corrientes afrofeministas (Collins, 2000), teorías del reconocimiento (Fraser, 2006), y saberes andino-amazónicos, para enriquecer la pluralidad epistémica.
    4. Contraste de paradigmas evaluativos
      Contrastar la lógica de la evaluación experimental (ej. Banco Mundial) con modelos como la evaluación realista (Pawson & Tilley, 1997) o transformativa (Mertens, 2009), evidenciando sus alcances y limitaciones.
    5. Visualización de tensiones
      Crear mapas conceptuales, líneas de equilibrio, y esquemas deliberativos que muestren las relaciones entre formas de validez, actores y contextos.
    6. Implicancias estratégicas
      Proponer líneas de acción para agencias de cooperación, universidades, movimientos sociales y financiadores, orientadas a democratizar el poder epistémico de la evaluación.

    6.Conclusión: hacia una nueva ecología de la validez

    La validez evaluativa del siglo XXI exige una transformación profunda de su lógica. Las formas de validez no deben ser vistas como compartimentos técnicos aislados, sino como expresiones de lo que se considera conocimiento legítimo, pertinente y justo.

    En lugar de buscar una validación totalizante, proponemos entender la evaluación como una práctica situada, reflexiva y negociada, especialmente en contextos de alta complejidad o injusticia estructural. Esto implica:

    1. Política de contexto primero: Reconocer que toda evaluación es una intervención en una ecología de poder, cultura y ambiente.
    2. Multiplicidad epistémica: Abrir los marcos de validez a epistemologías subalternas, indígenas, feministas y comunitarias.
    3. Tensión como oportunidad: En vez de evitar los conflictos, verlos como motores para el diseño reflexivo.
    4. Criterios ético-políticos: Incluir justicia social, derechos y participación como criterios evaluativos.
    5. Equilibrio dinámico: Evaluar desde ecologías adaptativas y deliberativas, no desde estándares universales.

    En suma, la validez no es una meta técnica, sino una conversación permanente entre saberes, contextos y valores. La evaluabilidad justa del futuro no dependerá solo de nuestra capacidad para medir, sino de nuestra voluntad para dialogar, cuestionar y transformar desde los marcos que definen qué entendemos como verdad evaluativa.

    Bibliografía 

    Validez Interna:

    • Shadish, W. R., Cook, T. D., & Campbell, D. T. (2002). Experimental and Quasi-Experimental Designs for Generalized Causal Inference. Boston: Houghton Mifflin.
    • White, H., & Phillips, D. (2012). Addressing attribution of cause and effect in small n evaluations. IDS Bulletin, 43(3), 124–131.
    • Gertler, P. J., Martinez, S., Premand, P., Rawlings, L. B., & Vermeersch, C. M. (2016). Impact Evaluation in Practice (2nd ed.). Washington, DC: World Bank.
    • Rossi, P. H., Lipsey, M. W., & Freeman, H. E. (2004). Evaluation: A Systematic Approach (7th ed.). Thousand Oaks, CA: Sage.
    • Pawson, R., & Tilley, N. (1997). Realistic Evaluation. London: Sage.

    Validez Externa:

    • Cartwright, N., & Hardie, J. (2012). Evidence-Based Policy: A Practical Guide to Doing It Better. Oxford: Oxford University Press.
    • Stern, E., et al. (2012). Broadening the Range of Designs and Methods for Impact Evaluations. DFID Working Paper 38.
    • Pawson, R. (2013). The Science of Evaluation: A Realist Manifesto. London: Sage.
    • Vivalt, E. (2020). How Much Can We Generalize from Impact Evaluations? Journal of the European Economic Association, 18(6), 3045–3089.

    Validez del Constructo:

    • Schwandt, T. A. (2009). Construct Validity in Evaluation. New Directions for Evaluation, 122, 59–68.
    • Patton, M. Q. (2015). Qualitative Research & Evaluation Methods (4th ed.). Thousand Oaks, CA: Sage.
    • King, J. A., Stevahn, L., Ghere, G., & Minnema, J. (2001). Toward a taxonomy of essential competencies for program evaluators. American Journal of Evaluation, 22(2), 229–247.
    • Bamberger, M., Rugh, J., & Mabry, L. (2019). RealWorld Evaluation (3rd ed.). Thousand Oaks, CA: Sage.

    Validez del Análisis de Datos:

    • Greene, J. C. (2007). Mixed Methods in Social Inquiry. San Francisco: Jossey-Bass.
    • Creswell, J. W., & Plano Clark, V. L. (2017). Designing and Conducting Mixed Methods Research (3rd ed.). Thousand Oaks, CA: Sage.
    • UNEG (2016). Norms and Standards for Evaluation. United Nations Evaluation Group.

    Validez Epistémica / Cultural / Decolonial:

    • Hood, S. (2009). Culturally Responsive Evaluation. In J. M. Fitzpatrick, M. Morris, & C. H. Christie (Eds.), The SAGE Handbook of Educational Evaluation (pp. 281–301). Thousand Oaks, CA: Sage.
    • Chilisa, B. (2012). Indigenous Research Methodologies. Thousand Oaks, CA: Sage.
    • LaFrance, J., & Nichols, R. (2010). Reframing evaluation: Defining an indigenous evaluation framework. Canadian Journal of Program Evaluation, 23(2), 13–31.
    • Sousa Santos, B. de (2018). El fin del imperio cognitivo: La afirmación de las epistemologías del Sur. Madrid: Akal.
    • Cousins, J. B., & Whitmore, E. (1998). Framing participatory evaluation. New Directions for Evaluation, 80, 5–23.
    • Collins, P. H. (2000). Black Feminist Thought (2nd ed.). New York: Routledge.

    Validez Utilitaria:

    • Patton, M. Q. (2011). Developmental Evaluation: Applying Complexity Concepts to Enhance Innovation and Use. New York: Guilford Press.
    • Preskill, H., & Torres, R. T. (2000). The Learning Dimension of Evaluation. San Francisco: Jossey-Bass.
    • Weiss, C. H. (1998). Evaluation: Methods for Studying Programs and Policies (2nd ed.). Upper Saddle River, NJ: Prentice Hall.

    Validez Política:

    • Mark, M. M., & Henry, G. T. (2004). The mechanisms and outcomes of evaluation influence. Evaluation, 10(1), 35–57.

    Validez Ecológica:

    • Bronfenbrenner, U. (1977). Toward an experimental ecology of human development. American Psychologist, 32(7), 513–531.

    Validez Ética:

    • Chilisa, B. (2012). Indigenous Research Methodologies. Thousand Oaks, CA: Sage.
    • LaFrance, J., & Nichols, R. (2010). Canadian Journal of Program Evaluation, 23(2).
    • UNEG (2016). Norms and Standards for Evaluation. United Nations Evaluation Group.

    Nota: Este artículo fue redactado con apoyo de inteligencia artificial, que también sugirió algunas de las referencias bibliográficas incluidas. Sin embargo, las ideas centrales, el enfoque y la selección final del contenido son completamente mías

    Written by cplysy · Categorized: TripleAD

    • « Go to Previous Page
    • Go to page 1
    • Interim pages omitted …
    • Go to page 7
    • Go to page 8
    • Go to page 9
    • Go to page 10
    • Go to page 11
    • Interim pages omitted …
    • Go to page 310
    • Go to Next Page »

    Footer

    Follow our Work

    The easiest way to stay connected to our work is to join our newsletter. You’ll get updates on projects, learn about new events, and hear stories from those evaluators whom the field continues to actively exclude and erase.

    Get Updates

    Want to take further action or join a pod? Click here to learn more.

    Copyright © 2026 · The May 13 Group · Log in

    en English
    af Afrikaanssq Shqipam አማርኛar العربيةhy Հայերենaz Azərbaycan dilieu Euskarabe Беларуская моваbn বাংলাbs Bosanskibg Българскиca Catalàceb Cebuanony Chichewazh-CN 简体中文zh-TW 繁體中文co Corsuhr Hrvatskics Čeština‎da Dansknl Nederlandsen Englisheo Esperantoet Eestitl Filipinofi Suomifr Françaisfy Fryskgl Galegoka ქართულიde Deutschel Ελληνικάgu ગુજરાતીht Kreyol ayisyenha Harshen Hausahaw Ōlelo Hawaiʻiiw עִבְרִיתhi हिन्दीhmn Hmonghu Magyaris Íslenskaig Igboid Bahasa Indonesiaga Gaeilgeit Italianoja 日本語jw Basa Jawakn ಕನ್ನಡkk Қазақ тіліkm ភាសាខ្មែរko 한국어ku كوردی‎ky Кыргызчаlo ພາສາລາວla Latinlv Latviešu valodalt Lietuvių kalbalb Lëtzebuergeschmk Македонски јазикmg Malagasyms Bahasa Melayuml മലയാളംmt Maltesemi Te Reo Māorimr मराठीmn Монголmy ဗမာစာne नेपालीno Norsk bokmålps پښتوfa فارسیpl Polskipt Portuguêspa ਪੰਜਾਬੀro Românăru Русскийsm Samoangd Gàidhligsr Српски језикst Sesothosn Shonasd سنڌيsi සිංහලsk Slovenčinasl Slovenščinaso Afsoomaalies Españolsu Basa Sundasw Kiswahilisv Svenskatg Тоҷикӣta தமிழ்te తెలుగుth ไทยtr Türkçeuk Українськаur اردوuz O‘zbekchavi Tiếng Việtcy Cymraegxh isiXhosayi יידישyo Yorùbázu Zulu