• Skip to main content
  • Skip to footer
  • Home

The May 13 Group

the next day for evaluation

  • Get Involved
  • Our Work
  • About Us
You are here: Home / Archives for cplysy

cplysy

Aug 19 2025

De Oulipo a GPT: la IA como catalizador de creatividad literaria

Introducción

Cada generación literaria ha sospechado de sus propias herramientas. La imprenta amenazó el aura del manuscrito, la máquina de escribir fue tachada de fría, y el hipertexto digital parecía un laberinto ilegible. Hoy, la inteligencia artificial ocupa ese lugar: ¿escribir con algoritmos es un fraude o una extensión legítima de la imaginación?

Los estudios recientes ofrecen una respuesta provocadora. Doshi y Hauser (2024) mostraron que la IA incrementa la creatividad individual, aunque tiende a homogeneizar el conjunto de resultados. En paralelo, Porter y Machery (2024) comprobaron que lectores no expertos fueron incapaces de distinguir poemas humanos de poemas generados por IA y, en muchos casos, prefirieron los segundos. El dilema, por tanto, no es si la IA puede producir literatura, sino qué lugar damos a esas producciones dentro de la ecología literaria.


Un ecosistema global de prácticas

La escena anglosajona ha sido pionera en institucionalizar la escritura digital y algorítmica. La Electronic Literature Organization (ELO), fundada en 1999, consolidó un espacio de intercambio y archivo que cristalizó en obras como The Bloomsbury Handbook of Electronic Literature (2017), hoy referencia académica. Por su parte, la International Conference on Computational Creativity (ICCC) reúne cada año a investigadores de narrativa computacional, evaluando tanto modelos de generación de historias como métricas de creatividad. Y el Journal of Cultural Analytics conecta humanidades digitales y análisis cultural a gran escala, reforzando el diálogo entre literatura y ciencia de datos.

En el ámbito hispano-latino, los experimentos no son menos audaces. Escrituras nómades de Belén Gache (2006) anticipó la exploración hipertextual como una deriva nómada de la lectura. Milton Läufer, con Lagunas (2015), llevó la novela generativa al extremo: un algoritmo incapaz de repetir un párrafo, en un gesto radical de combinatoria literaria. Más recientemente, experimentos pedagógicos muestran que usar IA en talleres universitarios fortalece el pensamiento crítico, pues obliga a los estudiantes a confrontar los límites de lo generado y a decidir qué conservar y qué desechar (Peña, 2024).

La conclusión es clara: tanto en el Norte como en el Sur global, la IA se ha convertido en un laboratorio compartido de nuevas formas narrativas.


Marcos conceptuales: entre la coautoría y el error fértil

Los debates actuales pueden condensarse en cinco ejes:

  1. Coautoría dirigida. La IA no sustituye al escritor; funciona como un colaborador abundante y algo torpe. Genera decenas de variantes, pero el escritor elige, poda y marca la voz final (Ippolito et al., 2022).
  2. Divergencia y convergencia. Lo valioso no es la avalancha de texto, sino la capacidad humana de transformar exceso en chispa narrativa (Roemmele, 2021).
  3. Contra-corpus. Insertar léxico local, memoria política o ironía contextual permite escapar de la “prosa promedio” que caracteriza a los grandes modelos.
  4. Restricción creativa. Desde el Oulipo —el taller francés de “literatura potencial” que exploraba lipogramas y constricciones formales— hasta los prompts actuales, la restricción sigue siendo motor de invención. Incluso los errores de la IA (entresuelo confundido con entre sueños) pueden leerse como hallazgos poéticos.
  5. Ética como estética. Declarar la participación de la IA no resta valor; sitúa la obra en un marco honesto y, a la vez, literariamente productivo (Floridi & Cowls, 2021).

Evaluación: del algoritmo al juicio literario

Un reto crucial es cómo evaluar textos generados con IA. En el mundo anglo, se han propuesto métricas automáticas como BARTScore (Yuan et al., 2021), útiles para medir coherencia y fluidez, pero incapaces de capturar la densidad estética. Otros trabajos adaptaron pruebas humanas como el Torrance Test of Creative Writing (TTCW), que traduce creatividad en criterios medibles. Los resultados son reveladores: los relatos de modelos lingüísticos obtienen peores puntajes que los de escritores profesionales (Chakrabarty et al., 2023).

En el ecosistema hispano, el avance más notable es GrAImes (Alemán Manzanárez et al., 2025). Este protocolo propone una rúbrica de 15 criterios inspirada en teoría literaria, que incluye coherencia temática, claridad, profundidad interpretativa y calidad estética. Su fortaleza es doble: fue validado con expertos literarios y con lectores no expertos, y ha sido publicado en revista científica revisada por pares. GrAImes no sustituye a las métricas automáticas: las complementa, aportando una lente humanística que permite distinguir lo correcto de lo verdaderamente literario.


Conclusiones: de la sospecha a la experimentación

La literatura generada con IA está dejando de ser un truco de feria para convertirse en campo legítimo de experimentación estética. Las instituciones anglosajonas proveen infraestructura crítica; los colectivos hispanos aportan frescura y contexto cultural. Entre ambos surge un mapa en el que la IA no destruye la autoría, sino que obliga a redefinirla.

El verdadero fraude no es usar IA para escribir.
El verdadero fraude sería no atreverse a experimentar con ella.

Referencias

  • Alemán Manzanárez, G., de la Cruz Arana, N., García Flores, J., García Medina, Y., Monroy, R., & Pernelle, N. (2025). Can Artificial Intelligence Write Like Borges? An Evaluation Protocol for Spanish Microfiction. Applied Sciences, 15(12), 6802. https://doi.org/10.3390/app15126802
  • Chakrabarty, T., Laban, P., Agarwal, D., Muresan, S., & Wu, C.-S. (2023). Art or Artifice? arXiv.
  • Doshi, A. R., & Hauser, O. P. (2024). Generative AI enhances individual creativity… Science Advances, 10(28). https://doi.org/10.1126/sciadv.adn5290
  • Electronic Literature Organization. (n.d.). About ELO.
  • Floridi, L., & Cowls, J. (2021). A unified framework of five principles for AI in society. Harvard Data Science Review, 3(1).
  • Gache, B. (2006). Escrituras nómades. Trea.
  • Ippolito, D., Yuan, A., Coenen, A., & Burnam, S. (2022). Creative writing with an AI-powered writing assistant. arXiv.
  • Läufer, M. (2015). Lagunas [novela digital generativa].
  • Peña, A. A. S. (2024). Literatura e inteligencia artificial: convergencias en el aula universitaria. Ethos Educativo, 57.
  • Porter, B., & Machery, E. (2024). AI-generated poetry… Scientific Reports, 14. https://doi.org/10.1038/s41598-024-76900-1
  • Roemmele, M. (2021). Inspiration through observation: Influence of generated text on creative writing. arXiv.
  • The Bloomsbury Handbook of Electronic Literature. (2017). Bloomsbury.
  • Yuan, W., Neubig, G., & Liu, P. (2021). BARTScore: Evaluating Generated Text with Pre-trained Models. arXiv.

Written by cplysy · Categorized: TripleAD

Aug 18 2025

Estrategias Anti-Evaluación: Aprendiendo Con TRIZ

¿Y si, para entender cómo mejorar los sistemas de evaluación, nos atreviéramos primero a imaginar cómo empeorarlos?

Esta es la provocación que inspira el panel que presentaremos en ReLAC 2025, y que se titula:

👉“¿Qué podemos hacer (o seguir haciendo) para que los sistemas de evaluación no funcionen nunca?”

No se trata de un ejercicio de cinismo. Se trata de un experimento crítico de aprendizaje. Utilizamos el enfoque TRIZ (Teoría para Resolver Problemas de Invención) —originalmente desarrollado por Genrich Altshuller (1996)— como una metodología para pensar al revés y, desde ahí, desatar reflexiones que rara vez tienen espacio en los discursos institucionales sobre evaluación.

Inspirados en las Estructuras Liberadoras (Lipmanowicz & McCandless, 2013), proponemos un giro irónico y serio a la vez: identificar prácticas, patrones y decisiones que garantizan que nuestros sistemas de evaluación fallen. Porque si podemos nombrarlos, podemos detenerlos. Y, tal vez, transformarlos.

🎯 ¿Por qué usar TRIZ en evaluación?

La ironía es una herramienta poderosa para el sinceramiento organizacional. En América Latina y el Caribe, muchos sistemas nacionales de evaluación enfrentan desde hace décadas:

  • Marcos legales débiles o desactualizados,
  • Apropiación institucional limitada,
  • Falta de uso de resultados,
  • Evaluaciones formales pero irrelevantes,
  • Culturas políticas que privilegian el control por sobre el aprendizaje.

En lugar de preguntar “¿cómo fortalecemos los sistemas?”, TRIZ nos invita a probar otra pregunta:

“¿Qué deberíamos hacer para asegurarnos de que nuestros sistemas de evaluación fracasen rotundamente?”

Al invertir la lógica del cambio, generamos las condiciones para que emerjan soluciones más sinceras y transformadoras.

🧠 ¿Capacidades para la evaluación… o simulaciones técnicas?

La noción de Desarrollo de Capacidades Nacionales de Evaluación (NECD) ha evolucionado. Hoy se entiende como un proceso sistémico, multidimensional y políticamente situado. La Teoría del Cambio de UNEG (2022) propone actuar en tres niveles:

  1. Individual: habilidades técnicas y éticas para liderar, encargar y usar evaluaciones (Picciotto, 2011).
  2. Organizacional: estructuras funcionales, mandatos claros y procesos institucionalizados (Segone, 2009).
  3. Sistémico: marcos normativos, incentivos, dinámicas de gobernanza y cultura de uso (Goldman & Pabari, 2020).

Como advierten Baser y Morgan (2008), las capacidades reales son aquellas que se vuelven atributos endógenos del sistema, es decir, que el sistema puede sostener, adaptar y renovar sin depender eternamente de apoyo externo.

Sin embargo, cuando observamos lo que realmente ocurre en muchos contextos, encontramos señales de un “TRIZ ya implementado”, aunque no intencionado.

🚧 Lo que hacemos (sin querer) para que no funcione

Aquí es donde TRIZ nos ayuda a mirar sin filtros. Estas son algunas de las “anti-prácticas” más comunes:

  • ❌No legislar, ni presupuestar, ni exigir evaluación. (Mackay, 2007; Goldman & Pabari, 2020)
  • ❌Crear unidades de evaluación sin poder real ni conexión con decisiones. (Segone, 2009)
  • ❌Capacitar evaluadores sin darles oportunidades reales de práctica. (Picciotto, 2011)
  • ❌Concebir la evaluación como castigo, control o trámite sin sentido. (Estrella & Gaventa, 1998)
  • ❌Desconectar evaluación de los ciclos de política y planificación. (UNEG, 2022)
  • ❌Reproducir lógicas de silos y fragmentación entre actores. (Gornitzka & Stensaker, 2014)

En nuestro taller en ReLAC, partiremos de estas preguntas incómodas para desbloquear respuestas valientes.

“¿Qué pasaría si dejáramos de hacer todo esto?”

🌺 Lo que no se dice en los manuales

TRIZ no está en los típicos manuales de M&E. Y quizás por eso es tan necesario.

Porque permite crear un espacio seguro para el error, donde se puede hablar —con humor o crudeza— de lo que normalmente se silencia: la simulación institucional, el desgaste, el cumplimiento sin propósito, el saber técnico sin uso real.

Como señala Morgan (2008), no transformamos capacidades con cursos, sino cuando creamos ambientes institucionales capaces de aprender de sí mismos.

🌱 Preparando el terreno para el cambio

Este post es solo una semilla. La sesión TRIZ en ReLAC será la cosecha colectiva.

Y quizás —solo quizás— este ejercicio nos sirva como un espejo crítico, para reconocer todo lo que debemos dejar de hacer si queremos sistemas de evaluación con sentido, legitimidad y valor público.

Te invito a comenzar ahora mismo:

“¿Qué estoy haciendo hoy que garantiza que mi sistema de evaluación no funcione?”

Responderlo con sinceridad brutal puede ser el primer paso hacia una transformación real.

📚 Referencias

  • Altshuller, G. (1996). And Suddenly the Inventor Appeared: TRIZ, the Theory of Inventive Problem Solving. Technical Innovation Center.
  • Baser, H., & Morgan, P. (2008). Capacity, Change and Performance: Study Report. European Centre for Development Policy Management (ECDPM).
  • Estrella, M., & Gaventa, J. (1998). Who Counts Reality? Participatory Monitoring and Evaluation: A Literature Review. Institute of Development Studies (IDS).
  • Goldman, I., & Pabari, M. (Eds.). (2020). Using Evidence in Policy and Practice: Lessons from Africa. Routledge.
  • Gornitzka, Å., & Stensaker, B. (2014). Evaluation Processes in Higher Education: Impact, Legitimacy and Power. Palgrave Macmillan.
  • Lipmanowicz, H., & McCandless, K. (2013). The Surprising Power of Liberating Structures: Simple Rules to Unleash a Culture of Innovation. Liberating Structures Press.
  • Mackay, K. (2007). How to Build M&E Systems to Support Better Government. The World Bank.
  • Morgan, P. (2008). The Idea and Practice of Systems Thinking and Their Relevance for Capacity Development. European Centre for Development Policy Management (ECDPM).
  • Picciotto, R. (2011). The logic of evaluation professionalism. Evaluation, 17(2), 165–180.
  • Segone, M. (Ed.). (2009). Country-led Monitoring and Evaluation Systems: Better Evidence, Better Policies, Better Development Results. UNICEF & World Bank.
  • UNEG – United Nations Evaluation Group. (2022). Theory of Change for National Evaluation Capacity Development. https://www.uneval.org

Nota: Este artículo fue redactado con apoyo de inteligencia artificial, que también sugirió algunas de las referencias bibliográficas incluidas. Sin embargo, las ideas centrales, el enfoque y la selección final del contenido son completamente mías

Written by cplysy · Categorized: TripleAD

Aug 18 2025

Maps as Icons

Quick wins for improving boring, black and white tables:

Transcript

[00:00:00] I wanna show you a really fun way to use maps.

And, as usual, you can do this inside everyday software like Excel and PowerPoint and Word.

So a few hours ago I was on a client call and I looked at their before version of a table and it looked like:

this.

It was just a black and white table, and they were like, “Ann, we wanna keep it as a table, but it can’t be so boring. We don’t want it to put people to sleep.”

Now these are obviously nobody’s real numbers. These are obviously nobody’s real hospital names, but the table did look like this with one column per location.

And the locations in real life were in different countries around the world.

So here is the idea that I shared with the client, and I wanna share with you too:

adding maps as icons above each column of the table.

In their real slide deck, and their real report, They had many, many tables like this, comparing the hospitals and showing all the data.

So you could [00:01:00] obviously repeat the little country icons, the little country silhouettes over and over and over throughout the slide deck and throughout the report for nice consistency.

Now you could use them in dark brand colors. This is Ann Emery’s brand purple that you probably recognize.

And try playing around with it. You know, adjust the colors ever so slightly. You can also try lighter versions of your brand colors and you can also try gray. Okay.

Now, this isn’t the only way to visualize this table, but it is the fastest.

This whole thing took me maybe 10 minutes max to make from start to finish.

I just made it in Excel and then I pasted it into PowerPoint.

As usual, If you have any how to questions, comment down below, and I will certainly point you in the right direction.

Written by cplysy · Categorized: depictdatastudio

Aug 15 2025

UN80: La contribución de la Evaluación para potenciar la reforma de la ONU

1.Introducción

    Este post esta dentro de la serie «Repensar la ayuda». En su 80.º aniversario, la ONU no se limita a celebrar. Se embarca en una transformación institucional de gran envergadura. Lanza UN80, una reforma orientada a reducir burocracia, revisar mandatos, fortalecer coherencia y avanzar hacia una arquitectura organizacional más eficiente y adaptada a los desafíos globales.

    Desde un enfoque de evaluación con intención transformadora, surge una oportunidad única: explorar cómo la evaluación puede contribuir activamente a maximizar el impacto y la sostenibilidad de esta reforma.

    2. ¿Qué es UN80 y por qué importa?

      UN80 es una iniciativa del Secretario General António Guterres, lanzada el 12 de marzo de 2025, centrada en tres grandes líneas: eficiencia interna, revisión de mandatos y reestructuración organizacional (Stimson Center, 2025).

      En agosto de 2025, el informe Mandate Implementation Review propuso:

      • Redactar mandatos más claros y específicos.
      • Crear un registro digital de mandatos.
      • Incorporar inteligencia artificial para mejorar la coordinación institucional (UN, 2025).

      La ambición es clara. La contribución de la evaluación puede ser clave para medir avances, garantizar la transparencia y nutrir el aprendizaje organizacional durante el proceso.

      3.Las tres líneas centrales del proceso UN80

        Eficiencia interna: recorte del 15–20 % del personal, cierre de oficinas duplicadas y relocalización de funciones hacia lugares más económicos (Stimson Center, 2025).

        Revisión de mandatos: análisis de más de 4.000 mandatos para eliminar redundancias y mejorar su alineación con los ODS (UN, 2025).

        Reestructuración institucional: fusiones como UNAIDS–OMS y UN Women–UNFPA, y creación de conglomerados temáticos (Health Policy Watch, 2025).

        4.UN80 y Evaluación

        4.1.Evaluación y aprendizaje: una oportunidad abierta

          La revisión de documentos clave (UN, 2025; Stimson Center, 2025; PassBlue, 2025) muestra que no se identifican menciones explícitas a mecanismos de evaluación estructurados dentro de UN80. Tampoco se documenta una participación formal de UNEG (United Nations Evaluation Group) en el diseño o implementación (UNEG, 2025).

          Lejos de verlo como ausencia, esta es una oportunidad para que la evaluación contribuya con:

          • Evidencia para la toma de decisiones.
          • Mecanismos de retroalimentación continua.
          • Fortalecimiento de la rendición de cuentas.

          4.2 Propuestas para integrar la contribución evaluativa en UN80

            • Establecer un comité asesor evaluativo con participación de UNEG.
            • Implementar evaluaciones rápidas y adaptativas.
            • Crear sistemas de retroalimentación participativa.
            • Publicar informes trimestrales de aprendizaje.

            4.3. Implicaciones para el campo de la evaluación

              UN80 es un laboratorio vivo para aplicar una evaluación con intención transformadora:

              • Apoyar el rediseño institucional desde el inicio.
              • Aportar análisis en tiempo real.
              • Fortalecer el aprendizaje como motor de cambio.

              5.Reflexión final y llamada a la acción

                UN80 representa una oportunidad histórica para modernizar la ONU. La evaluación, integrada desde el diseño, puede ser un pilar que potencie su efectividad, legitimidad y sostenibilidad.

                Reto para el lector:

                • ¿Qué áreas de UN80 podrían beneficiarse más de la evaluación?
                • ¿Cómo aseguramos que el aprendizaje sea parte integral de la reforma?
                • ¿Qué mecanismos podrían fortalecer la contribución evaluativa en este proceso?

                Referencias

                • Christian, B. (2025). Why International Organizations Don’t Learn: Dissent Suppression as a Source of IO Dysfunction. ReformWorks. https://www.reformworks.org/post/will-the-un-ever-learn-to-reform
                • Devex. (2025). What now for the UN? A new evaluation prompts critical questions. https://www.devex.com/news/opinion-what-now-for-the-un-a-new-evaluation-prompts-critical-questions-110512
                • GCR2P. (2025). UN80 and the Future of Atrocity Prevention. https://www.globalr2p.org/publications/un80-and-the-future-of-atrocity-prevention-opportunities-for-structural-reform
                • Global Observatory. (2025). UN80 and the Reckoning Ahead: Can Structural Reform Deliver Real Change? https://theglobalobservatory.org/2025/05/un80-and-the-reckoning-ahead-can-structural-reform-deliver-real-change
                • Health Policy Watch. (2025). Exclusive: Full Text of UN80 Task Force Pitch for Streamlined UN. https://healthpolicy-watch.news/exclusive-full-text-of-un80-task-force-pitch-for-streamlined-un-including-who-and-unaids-merger
                • Indepth News. (2025). UN Reform Is Not a Floorplan. It’s a Reckoning. https://indepthnews.net/un-reform-is-not-a-floorplan-its-a-reckoning
                • ReformWorks. (2025). UN80: What Makes a UN Mandate Effective or Efficient? https://www.reformworks.org/post/un80-what-makes-a-un-mandate-effective-or-efficient
                • Stimson Center. (2025). UN80: From Less With Less to More With Less. https://www.stimson.org/2025/un80-from-less-with-less-to-more-with-less
                • UN – United Nations. (2025). Mandate Implementation Review: UN80 Workstream 2 Report. https://www.un.org/un80-initiative/en/report-mandate-implementation-review
                • UNEG – United Nations Evaluation Group. (2025). https://www.unevaluation.org/

                Nota: Este artículo fue redactado con apoyo de inteligencia artificial, que también sugirió algunas de las referencias bibliográficas incluidas. Sin embargo, las ideas centrales, el enfoque y la selección final del contenido son completamente mías

                Written by cplysy · Categorized: TripleAD

                Aug 13 2025

                How Nonprofit Leaders Can Balance Staff Capacity with Data-Driven Decision Making

                Nonprofit leaders face the challenge of making data-driven decisions while protecting staff capacity. Here’s how to balance both without sacrificing impact.

                The post How Nonprofit Leaders Can Balance Staff Capacity with Data-Driven Decision Making appeared first on Nicole Clark Consulting.

                Written by cplysy · Categorized: nicoleclark

                • « Go to Previous Page
                • Go to page 1
                • Go to page 2
                • Go to page 3
                • Go to page 4
                • Go to page 5
                • Go to page 6
                • Interim pages omitted …
                • Go to page 304
                • Go to Next Page »

                Footer

                Follow our Work

                The easiest way to stay connected to our work is to join our newsletter. You’ll get updates on projects, learn about new events, and hear stories from those evaluators whom the field continues to actively exclude and erase.

                Get Updates

                Want to take further action or join a pod? Click here to learn more.

                Copyright © 2026 · The May 13 Group · Log in

                en English
                af Afrikaanssq Shqipam አማርኛar العربيةhy Հայերենaz Azərbaycan dilieu Euskarabe Беларуская моваbn বাংলাbs Bosanskibg Българскиca Catalàceb Cebuanony Chichewazh-CN 简体中文zh-TW 繁體中文co Corsuhr Hrvatskics Čeština‎da Dansknl Nederlandsen Englisheo Esperantoet Eestitl Filipinofi Suomifr Françaisfy Fryskgl Galegoka ქართულიde Deutschel Ελληνικάgu ગુજરાતીht Kreyol ayisyenha Harshen Hausahaw Ōlelo Hawaiʻiiw עִבְרִיתhi हिन्दीhmn Hmonghu Magyaris Íslenskaig Igboid Bahasa Indonesiaga Gaeilgeit Italianoja 日本語jw Basa Jawakn ಕನ್ನಡkk Қазақ тіліkm ភាសាខ្មែរko 한국어ku كوردی‎ky Кыргызчаlo ພາສາລາວla Latinlv Latviešu valodalt Lietuvių kalbalb Lëtzebuergeschmk Македонски јазикmg Malagasyms Bahasa Melayuml മലയാളംmt Maltesemi Te Reo Māorimr मराठीmn Монголmy ဗမာစာne नेपालीno Norsk bokmålps پښتوfa فارسیpl Polskipt Portuguêspa ਪੰਜਾਬੀro Românăru Русскийsm Samoangd Gàidhligsr Српски језикst Sesothosn Shonasd سنڌيsi සිංහලsk Slovenčinasl Slovenščinaso Afsoomaalies Españolsu Basa Sundasw Kiswahilisv Svenskatg Тоҷикӣta தமிழ்te తెలుగుth ไทยtr Türkçeuk Українськаur اردوuz O‘zbekchavi Tiếng Việtcy Cymraegxh isiXhosayi יידישyo Yorùbázu Zulu