• Skip to main content
  • Skip to footer
  • Home

The May 13 Group

the next day for evaluation

  • Get Involved
  • Our Work
  • About Us
You are here: Home / Archives for cplysy

cplysy

Jun 09 2020

DAC Evalnet: Equilibrio para una respuesta al COVID rápida y flexible

Fuente https://www.oecd.org/

Nos hablan de equilibrio entre rapidez y flexibilidad en la respuesta al COVID, pero también de liderazgo y apropiación, desde la Red de Evaluación del Comité de Ayuda al Desarrollo (EvalNet DAC / OCDE) en este post, parte de una serie sobre cómo abordar COVID-19 en países en desarrollo: “COVID-19 y Cooperación al Desarrollo: sabemos mucho sobre lo que funciona, usemos la evidencia” del 30 de abril de 2020.

La reciente declaración del Comité de Asistencia para el Desarrollo de la OCDE sobre el COVID, exige una acción sostenida para abordar la crisis en los países más pobres del planeta. En estas sociedades, la pandemia se encontrará con sistemas de salud pública débiles. Las medidas de confinamiento aplastarán las estructuras económicas frágiles y empeorarán la situación social de muchas personas, particularmente entre los grupos más vulnerables de la sociedad. La violencia contra las mujeres y los niños está aumentando en todo el mundo. En otras palabras, a corto plazo es probable que la pandemia cause un desastre humanitario. En el mediano plazo, conducirá a una crisis económica estructural que pondrá en peligro el progreso reciente en el logro de los objetivos de desarrollo sostenible.

Si bien los países de la OCDE todavía están trabajando para contener las consecuencias de largo alcance de COVID-19 en sus países, los responsables políticos están dando un paso adelante para ayudar a los países en desarrollo asociados. Muchos países de la OCDE, instituciones multilaterales y organizaciones internacionales han comprometido fondos, y cada día se hacen más anuncios.

Si bien estos esfuerzos brindan esperanza, como evaluadores, nos preocupa que la presión para una acción urgente pueda conducir a pasos críticos en falso . La evidencia de intervenciones pasadas durante crisis mundiales o regionales ha demostrado que no todas las acciones bien intencionadas son efectivas. Lo más importante, y al mismo tiempo más desafiante, es lograr el equilibrio adecuado entre respuestas rápidas y flexibles, por un lado, y coordinación, planificación de calidad y sensibilidad al contexto, por otro lado.

Los esfuerzos deben basarse en las lecciones del pasado, incluida la abundante evidencia de las evaluaciones de otros esfuerzos de ayuda (como la síntesis, “Abordar el nuevo coronavirus” por la Oficina de Evaluación Independiente del BAD). Además, recomendamos encarecidamente que todas las próximas respuestas de asistencia humanitaria y de desarrollo se acompañen de monitoreo, evaluación e investigación de resultados de alta calidad. Ignorar la evidencia pasada y no invertir en generar nueva evidencia creíble sobre lo que funciona y lo que no funciona, en qué contextos y para quién, puede costar vidas.

Si se tienen en cuenta las lecciones relevantes y aplicables de las experiencias y evaluaciones pasadas, la efectividad y la relevancia de los esfuerzos actuales aumentarán sustancialmente.

Para apoyar este proceso, los socios de desarrollo y los gobiernos nacionales y subnacionales ya deberían comenzar a invertir en datos sólidos, sistemas de monitoreo y evaluación. Después de todo, estos procesos toman tiempo para construirse, mientras que las preguntas legítimas sobre  la efectividad de las políticas surgirán casi de inmediato. Esto no tiene por qué ser laborioso, pero debe tener los fundamentos correctos para permitir la responsabilidad y el aprendizaje a medida que avanzamos. Implica definir claramente nuestros objetivos (como expandir las capacidades de tratamiento), recopilar datos de referencia (cuántos ventiladores están disponibles ahora) y garantizar capacidades suficientes para rastrear los resultados (la proporción de ventiladores a las personas que los necesitan; acceso para personas en grupos vulnerables ) También implica comenzar análisis de impacto rigurosos lo antes posible, rastrear cómo el soporte relacionado con COVID-19 está afectando a diferentes personas y protegerse contra los efectos negativos no deseados.

Como evaluadores tenemos tres roles: (1) asesorar sobre la mejor manera de medir y monitorear, (2) proporcionar evidencia de alta calidad y (3) hacer que la evidencia y las lecciones sean mucho más accesibles para los formuladores de políticas. En el DAC EvalNet, están revisando lecciones pasadas, para producir un resumen de políticas basado en evidencia. También están trabajando con los miembros y  socios en las unidades de evaluación de las Naciones Unidas y multilaterales, para lanzar una coalición de evaluación COVID-19 para proporcionar una evaluación independiente y creíble del progreso y los resultados y coordinar los esfuerzos. Veamos si la rendición de cuentas mutua que eso supondría, podría mejorar la respuesta.

Cumpliendo estos tres roles, l@s evaluador@s podemos hacer cierta contribución. Pero solo si los políticos y los gestores están abiertos y dispuestos a (a) contar con / situar la función de evaluación o a (b) aplicar el conocimiento, esto se traducirá en una asistencia efectiva para el desarrollo.

 

Y hoy damos un hasta pronto a Pau, que tantas veces nos acompañó e ilusionó, i Pau que tanto nos dio i

 

Written by cplysy · Categorized: TripleAD

Jun 09 2020

Visualizing Equity in Education

In this article, guest author Molly Hanlon shares how she uses data to create visualizations and stories that help school staff make decisions to better serve their students. Please comment below with your own tips! Let’s learn with each other. –Ann

We use stories to affirm our beliefs. This is especially true in conversations about equity.

Over many years, I’ve observed countless situations in which school administrators were presented data that showed unjust equity in their system. Most often, administrators told themselves stories to justify that result. A common story was, “That data is confusing, and it can’t be right.”

Many school systems are not using data to make informed decisions. Too often, they are making decisions on what feels right to them, based on a story that isn’t consistent with the evidence. My goal is to use data to create visualizations and stories that are consistent with the evidence, and to help staff focus on how to make schools more equitable and just for all students.

It has felt so gratifying to me to create and share data visualizations that help people accept stories consistent with the evidence. Those stories empower them to identify and accept the challenges faced by their systems, and to inform possible solutions.

Producing Data Visualizations for the Seattle Public Schools

In 2019, I was tasked with presenting data to an Advanced Learning taskforce within the Seattle Public Schools.  Advanced Learning programs are designed for students who demonstrate an exceptional ability or potential to learn and reason beyond their same-age classmates. 

The taskforce examined disparities among students of color who participated in the program, how students were selected for the program, the program’s delivery, and institutional best practices.

The following two examples are a small sample of the visualizations I provided the taskforce, to help them understand the demographic student populations in the advanced learning programs.

Visualizing White vs. Non-White Students

This first visualization illustrates the percentage of white versus non-white students in the Seattle Public Schools Advanced Learning program over time. 

These graphs were presented in-person to the taskforce, and then included into a “fact pack” for later reference. 

Before: A Clustered Column Chart with Default Software Settings

Here’s what our graphs used to look like: a clustered column chart with default software settings.

Here’s what our graphs used to look like: a clustered column chart with default software settings.

After: A Stacked Column Chart with a Takeaway Title

Here’s what our graphs look like now.

Here's what our graphs look like now: a stacked column chart with a takeaway title.

Here are the improvements we made. We:

  • changed the font and color schemes to match the Seattle Public Schools style guide;
  • wrote a more descriptive title;
  • eliminated the superfluous legend, which distracts the viewer’s attention;
  • changed the chart type from a clustered column to a 100% stacked column for easier reading;
  • increased the font size of percentages for easier reading; and
  • eliminated the border and x-axis line, which introduced unhelpful visual distractions.

Visualizing Disparities of Students of Color

The second example shows the disparities of students of color compared to their overall representation in the district.  

Before: A Clustered Column Chart with Default Software Settings

Here’s what our graphs used to look like:

Before our graphs were a clustered column chart that used default software settings.

After: Adding Color-Coded Annotations

Here’s what our graphs look like now:

Now our charts use color-coded annotations that make them easier to read and understand.

Here are the improvements we made. We:

  • changed font and color schemes to match the Seattle Public Schools style guide;
  • wrote a descriptive title and inserted a text box to further explain the significance of the data;
  • eliminated or used a lighter shade for the data that wasn’t as significant;
  • increased the font of the percentages that were more significant;
  • eliminated the legend by coloring the font in the descriptive text box; and
  • eliminated the border and x-axis line.

The Impact of Intentional Data Visualization

These graphs challenged the task force to think about the inequities in Advanced Learning programs given the change in district demographics.

Collect with Molly

Connect with Molly Hanlon on LinkedIn: https://www.linkedin.com/in/molly-hanlon-b701305a/

Written by cplysy · Categorized: depictdatastudio

Jun 08 2020

Aprendiendo rápido para salvar vidas durante el COVID

Fuente: https://blog.evalcentral.com/wp-content/uploads/2020/06/do51285dkrrxp0823li16c5oggt0wm3e.jpg

Fuente: https://blog.evalcentral.com/wp-content/uploads/2020/06/do51285dkrrxp0823li16c5oggt0wm3e.jpg

Hemos estado introduciendo en posts pasados ​​las Evaluaciones en Tiempo Real, pero hay otras herramientas más rápidas desde el aprendizaje, (aunque más “sucias” desde el rigor), pero que pueden también ser útiles frente al COVID, como las descritas en la “Caja de herramientas de Gestión del Conocimiento” de UNICEF.

Sobre estas herramientas rápidas de gestión del conocimiento también nos hablan en “¿Qué se necesitará para aprender rápido para salvar vidas durante el COVID-19 (coronavirus)?“, Lauren Kelly y Christopher Nelson en su post del 20 de mayo de 2020: A medida que los países y las organizaciones se mueven rápidamente para responder a la crisis de COVID-19, se necesitan herramientas ágiles para iluminar y evaluar lo que funciona y lo que no. Los enfoques tradicionales de monitoreo y evaluación, basados ​​en teorías establecidas y líneas de base de proyectos, son de uso limitado en una crisis en rápido cambio y en constante cambio. Se debe apoyar a los equipos de proyecto para apropiarse de un conjunto más amplio de herramientas de aprendizaje emergente (1) para una mayor capacidad de respuesta, y (2) para crear un ambiente de aprendizaje constante y (3) donde se reconozcan los errores, y (4) donde ambos contribuyan a mejorar el impacto de las intervenciones. Hay mucho en juego: durante los tiempos de COVID-19, aprender rápido puede ayudar a proteger a los más vulnerables y, en última instancia, a salvar vidas.

En una sala de emergencias, al igual que en la respuesta a una crisis global como la pandemia de coronavirus, salvar vidas requiere que (1) los equipos aprendan rápido, (2) cambien su pensamiento y (3) adapten sus prácticas en tiempo real. Requiere (1) la aplicación de prácticas simples y ágiles para evaluar, aprender y reaccionar, (2) no la creación de una planificación detallada o listas de verificación, sino (3) procesos para recopilar y compartir conocimientos sobre lo que está funcionando, lo que está fallando y por qué.

Hay un conjunto de herramientas ágiles, vinculadas a una práctica llamada Aprendizaje Emergente que los equipos que trabajan en la respuesta a la crisis pueden adaptar fácilmente. El campo del aprendizaje emergente ofrece cuatro herramientas esenciales para que el enfoque de la pandemia actual sea más eficaz:

1. La “Pregunta de encuadre“ se construye con una fase simple: “¿Qué se necesitará para …” [brindar asistencia médica a los pacientes con COVID-19 más vulnerables?]. Crea un enfoque para el aprendizaje colectivo al preguntar qué se necesitará para lograr el resultado deseado. Es un desafío centrado en el futuro y orientado a la acción para el grupo para garantizar la alineación en torno a una premisa o idea acordada. Cuando se hace bien, la pregunta de encuadre es a la vez un mecanismo para fusionarse en torno a un resultado deseado y un medio para definir contribuciones individuales. Una buena pregunta enmarcada tiene la capacidad de “entrenar la atención de un grupo hacia adelante, en una investigación colectiva que conduzca a la acción”.

2. Tablas de aprendizaje emergentes necesarias para emerger y capturar datos, ideas, formular hipótesis e identificar oportunidades para acciones futuras. Una forma de “acercar al equipo a la mesa”: la herramienta alienta a los equipos a reflexionar preguntando: ¿qué sabemos hasta ahora? Es importante destacar que el proceso ayuda al equipo a establecer una conexión deliberada entre el pasado y el futuro para garantizar que las lecciones anteriores informen las acciones posteriores.

3. “Revisión Antes de la Acción” es una oportunidad para discutir en detalle cómo será el éxito, y para establecer los resultados previstos e identificar los escollos anticipados. La revisión coloca al equipo en una vía de aprendizaje, vinculada a la ‘Revisión después de la acción’ iterativa, y a menudo realizada, (ver más abajo).

4. “Revisión Después de la Acción“ permite una reflexión en tiempo real sobre cómo se comparan los resultados reales con los previstos. ¿Qué causó los resultados y qué los sostendrá o mejorará?

Aquí hay una presentación rápida sobre estas 4 herramientas de aprendizaje emergente.

Written by cplysy · Categorized: TripleAD

Jun 05 2020

La evaluación en tiempo real en emergencias: ¿cómo?

Continuamos con el anterior post “La evaluación en tiempo real en emergencias” basado en un resumen que hizo INTRAC sobre el tema, y compartimos algunas ideas sobre cómo se ejecuta una RTE. Hay algunas características de las Evaluaciones en Tiempo Real (RTE) que pueden ser diferentes a las de las evaluaciones más convencionales. Algunos de éstas son los siguientes (ver Cosgrave et al. 2009, Polastro 2012, Herson y Mitchell 2005):

▪ Las RTE ejecutadas por organizaciones a título individual generalmente se llevan a cabo durante cortos períodos de tiempo, como 2-3 semanas. Esto se debe a que la intención es proporcionar retroalimentación en tiempo real que pueda ser accionada de inmediato. Los RTE a menudo son ejercicios ligero que lleva a cabo un equipo de evaluación de entre una y a cuatro personas, básicamente un número lo suficientemente pequeño como para caber dentro de un vehículo, ahora con COVID incluso sin necesidad de vehículo (pero hay que añadir algo de innovación e imaginación). El equipo puede ser interno, externo o una combinación. Debido a que generalmente se llevan a cabo en intervenciones humanitarias, los RTE tienden a ser más rápidos, flexibles y receptivos que los tipos de evaluación más tradicionales.

▪ En un RTE a menudo (1) no hay una línea de base y (2) no hay necesidad (o tiempo) de utilizar metodologías complejas de recopilación y análisis de datos. Las RTE tienden a depender de (1) métodos cualitativos como entrevistas, discusiones de grupos focales y observación, ahora (2) con COVID, todas esas herramientas han de pasar a “remoto”. Las encuestas o cuestionarios pueden ser difíciles de implementar debido a los cortos plazos. Por el contrario, la observación puede ser más importante en RTE que en otros tipos de evaluación y esto (la observación) es algo, de nuevo, en lo que deberíamos de innovar en tiempos de COVID.

▪ Las RTE son generalmente participativas porque dependen de interacciones con múltiples partes interesadas, incluidos los beneficiarios previstos. El propósito y la metodología de un RTE generalmente están dictados por las circunstancias y son seleccionados por la organización en cuestión. Sin embargo, diferentes partes interesadas tienen un papel importante en la definición de cómo se puede mejorar una intervención y quién debe actuar para asegurarse de que los cambios sucedan.

▪ Durante los RTE, a menudo hay (1) un mayor énfasis en el proceso que en el impacto y la sostenibilidad. Hay menos enfoque en la evaluación de impacto y más en el aprendizaje inmediato de lecciones. En parte como consecuencia, (2) existe una necesidad menos obvia de garantizar que los hallazgos sean “rigurosos”; es más necesario generar hallazgos de manera rápida y económica para garantizar que las respuestas se puedan realizar de manera oportuna. Nuevamente, esto tiende a hacer que un RTE parezca más un ejercicio de seguimiento que uno de evaluación, lo que (iii por fin iii) desdibuja los límites entre el seguimiento y la evaluación.

▪ En un RTE, un informe de evaluación puede ser menos importante de lo que habitualmente son. Aunque es importante como un registro a largo plazo, y tal vez útil cuando se recopilan las lecciones aprendidas de muchas intervenciones, el enfoque principal de un RTE debe estar en las recomendaciones hechas (y las decisiones tomadas en cuenta) mientras la evaluación está en progreso. Siempre existe el riesgo de que cualquier informe final esté desactualizado para cuando se publique, ya que los eventos durante las respuestas humanitarias pueden avanzar muy rápidamente.

Fuentes

▪ Cosgrave, J; Ramalingan, B and Beck T (2009). Real-time evaluations of humanitarian action: An ALNAP Guide. ODI, 2009.

▪ Herson, M and Mitchell, J (2005). “Real-Time Evaluation: Where does its value lie?” Humanitarian Exchange, 32, pp. 43-45.

▪ Polastro, R (2012). Real Time Evaluations: Contributing to system-wide learning and accountability. 

▪ INTRAC. Real Time Evaluation

Written by cplysy · Categorized: TripleAD

Jun 04 2020

Ethical Decision Making in Evaluation

 

Evaluations are inherently political, which means they are fraught with ethical choices and decisions along the way. There have been many instances throughout my career where I get that uneasy feeling, my gut talking to me and telling me to slow down and re-think what I am doing. I’ve learned that when I do, a devil appears on my left shoulder and starts yelling:

 

“WHAT ARE YOU DOING? YOU DON’T HAVE TIME FOR THIS! YOU’RE GOING TO GO WAY OVER BUDGET DOING THIS – KEEP GOING! SO WHAT IF YOU DON’T HEAR FROM THOSE PEOPLE? SO WHAT IF THAT PUTS THEM AT RISK?”

 

And then the angel on my right shoulder appears. Thank goodness! We all know from the movies that I’m supposed to listen to her. I slow down even more and listen intently:

“Do the right thing,” she whispers.

Uh-huh, okay. I keep listening for more….

That’s it?! What in the hell (excuse my language, angel), does that mean? In my evaluation experience I have been faced with numerous situations where I know I should do “the right thing,” but more times than not the decisions we face are not black and white or right and wrong.

For example:

….during evaluation planning, we don’t have the resources to answer all questions from all stakeholders – how do we decide how to focus the evaluation? Whose needs will we address and whose will we leave out? Is it appropriate to focus evaluation questions on funder needs and burden program staff and participants with collecting and reporting information that is not important or useful to them? Is it enough for funders to check the box and say, “the program was a success –  good for us,” but has little benefit for program staff and participants? 

….during data collection, we may be inclined to take the easier path to get the data we need to answer our questions. We may ask ourselves, “do I really need to include that group?” Trying to access that group and get their informed consent could burn a lot of time and resources. Is it right to exclude them and only provide the perspective of others?

….during analysis and reporting, what do we do if our stakeholders suggest we present findings  in an alternative (i.e. more favourable) way? This happens far more often than I would like, but stakeholders are called stakeholders for a reason  – they have a stake in whatever it is you are evaluating. We conducted an evaluation of a program a few years ago and from the start were informed that the livelihood of this program depended on favourable evaluation results. When we uncovered and reported what they perceived as negative findings, the stakeholders of course pushed back on those findings. As evaluators, we have a responsibility to present the data (both positive and negative); however, the reality is, anyone who has worked as an evaluator knows that data isn’t just data (yes, even quantitative data). As Michael Quinn Patton states in his book Utilization-Focused Evaluation, “data always requires interpretation. Interpretation is only partly logical and deductive; it’s also value laden and perspective dependent.” Conversations are never really about reporting if the results get presented, but more of a back and forth of how and to what extent.

So, what is an evaluator to do?

Here are some things that have helped me silence the devil on my left shoulder and figure out what my angel means:

Program Evaluation Standards

There are standards that have been created to help guide the way for evaluators. The Joint Committee on Standards for Educational Evaluation (JCSEE) developed Program Evaluation Standards that have been adopted by evaluation associations in the United States and Canada. The Standards provide guidance both for evaluators in planning and implementing their program evaluation projects, and for evaluation users in knowing what to expect from the evaluation process and products. Check out our free 6-page resource that provides evaluators with reflective questions for each of the Standards. 

JCSEE+Eval+Standards+in+Practice+Preview.png


Alberta Innovates ARRECI

ARECCI Ethics Screening Process

ARECCI Ethics Screening Process

– Most researchers have access to a research ethics board to review and approve — or not — their research projects. However, evaluators are often turned away by research ethics boards – after all they are “research” ethics boards. Nonetheless, evaluation still involves people, information and potential risk to participants. In our home province, Alberta Innovates has created an ethical framework for evaluation and other innovation projects in Alberta. ARECCI stands for A pRoject Ethics Community Consensus Initiative. This collaborative initiative has developed a screening tool that helps identify what your project is (i.e. research, evaluation, QI) and an ethics guideline tool. Even if you are an evaluator outside of Alberta, these tools are useful for identifying risk to participants and helping you make decisions that will protect people and their information.  


Evaluator colleagues and community

When you’re not sure, ask! At Three Hive, we are lucky to work on a team where we can bounce ideas and questions off each other. In addition, my business partner, Shelby Corley, is what Alberta Innovates calls a Second Opinion Reviewer, which means she has received additional training on reviewing projects for ethical risk and ways to mitigate risk. If you’re an independent consultant and don’t have your own in-house ethical angel, then reach out to the evaluator community. As you know, evaluators love giving recommendations! Start an #evalTwitter on Twitter, post a question on EvalCentral, or join some evaluation groups on LinkedIn and post your questions. While standards are useful, you will get far more real-world practical advice from your fellow evaluators.

If you’re still at a loss, sometimes you just have to re-visit that gut feeling. Maybe my angel wasn’t saying “do the right thing” but “do what feels right” (it is so hard to hear with that noisy devil sometimes!). As Ernest Hemingway said:

 

“So far, about morals, I know only that what is moral is what you feel good after and what is immoral is what you feel bad after.”

 


Sign up for our newsletter

We’ll let you know about our new content, and curate the best new evaluation resources from around the web!


We respect your privacy.

Thank you!


 

Written by cplysy · Categorized: evalacademy

  • « Go to Previous Page
  • Go to page 1
  • Interim pages omitted …
  • Go to page 255
  • Go to page 256
  • Go to page 257
  • Go to page 258
  • Go to page 259
  • Interim pages omitted …
  • Go to page 304
  • Go to Next Page »

Footer

Follow our Work

The easiest way to stay connected to our work is to join our newsletter. You’ll get updates on projects, learn about new events, and hear stories from those evaluators whom the field continues to actively exclude and erase.

Get Updates

Want to take further action or join a pod? Click here to learn more.

Copyright © 2026 · The May 13 Group · Log in

en English
af Afrikaanssq Shqipam አማርኛar العربيةhy Հայերենaz Azərbaycan dilieu Euskarabe Беларуская моваbn বাংলাbs Bosanskibg Българскиca Catalàceb Cebuanony Chichewazh-CN 简体中文zh-TW 繁體中文co Corsuhr Hrvatskics Čeština‎da Dansknl Nederlandsen Englisheo Esperantoet Eestitl Filipinofi Suomifr Françaisfy Fryskgl Galegoka ქართულიde Deutschel Ελληνικάgu ગુજરાતીht Kreyol ayisyenha Harshen Hausahaw Ōlelo Hawaiʻiiw עִבְרִיתhi हिन्दीhmn Hmonghu Magyaris Íslenskaig Igboid Bahasa Indonesiaga Gaeilgeit Italianoja 日本語jw Basa Jawakn ಕನ್ನಡkk Қазақ тіліkm ភាសាខ្មែរko 한국어ku كوردی‎ky Кыргызчаlo ພາສາລາວla Latinlv Latviešu valodalt Lietuvių kalbalb Lëtzebuergeschmk Македонски јазикmg Malagasyms Bahasa Melayuml മലയാളംmt Maltesemi Te Reo Māorimr मराठीmn Монголmy ဗမာစာne नेपालीno Norsk bokmålps پښتوfa فارسیpl Polskipt Portuguêspa ਪੰਜਾਬੀro Românăru Русскийsm Samoangd Gàidhligsr Српски језикst Sesothosn Shonasd سنڌيsi සිංහලsk Slovenčinasl Slovenščinaso Afsoomaalies Españolsu Basa Sundasw Kiswahilisv Svenskatg Тоҷикӣta தமிழ்te తెలుగుth ไทยtr Türkçeuk Українськаur اردوuz O‘zbekchavi Tiếng Việtcy Cymraegxh isiXhosayi יידישyo Yorùbázu Zulu