background preloader

Center for Theory of Change

Center for Theory of Change
Related:  L'évaluation d'impact social

Cerise, réseau d’échange en microfinance Collective Impact (Photo by iStock/wildpixel) The scale and complexity of the US public education system has thwarted attempted reforms for decades. Major funders, such as the Annenberg Foundation, Ford Foundation, and Pew Charitable Trusts have abandoned many of their efforts in frustration after acknowledging their lack of progress. Against these daunting odds, a remarkable exception seems to be emerging in Cincinnati. Why has Strive made progress when so many other efforts have failed? These leaders realized that fixing one point on the educational continuum—such as better after-school programs—wouldn’t make much difference unless all parts of the continuum improved at the same time. Strive didn’t try to create a new educational program or attempt to convince donors to spend more money. Although rare, other successful examples of collective impact are addressing social issues that, like education, require many different players to change their behavior in order to solve a complex problem. 1. 2. 3. 4.

The GIIN, Getting Started with IRIS IRIS is your free, online catalog for selecting performance metrics. In this guide, we’ll first cover all the basics, like how IRIS works (and how it will help you do your job). Then we’ll get into the more hands-on details, like how to choose metrics for your IRIS-based performance measurement program. In this guide, you’ll learn: How IRIS works How to select metrics that matter to you How to avoid common mistakes This guide is designed with special consideration for the needs of fund managers and other investors managing a portfolio of companies. There’s no previous experience or specific expertise required to choose impact performance metrics. Why do you want impact data? Once you answer these questions, selecting your IRIS performance metrics is not difficult. Now, let’s get started! You are here because you have heard that impact investors use IRIS to understand the social and environmental performance of their investees. What is IRIS? IRIS measures the performance of an organization.

In Defense of Logic Models Photo by 707d3k Last month, my post Creative Placemaking Has an Outcomes Problem generated a lot of discussion about creative placemaking and grantmaking strategy, much of it really great. If you haven’t had a chance, please check out these thoughtful and substantive responses by—just to name a few—Richard Layman, Niels Strandskov, Seth Beattie, Lance Olson, Andrew Taylor, Diane Ragsdale, Laura Zabel, and most recently, ArtPlace itself. I’m immensely grateful for the seriousness with which these and other readers have taken my critique, and their questions and suggestions for further reading have been tremendously illuminating. Now that the talk has subsided a bit, it’s a good opportunity to clarify and elaborate upon some of the subtler points that I was trying to make in that piece, which definitely left a bit of room for people to read in their own interpretations. It’s clear from some of the responses, however, that not everybody shares my optimism in the utility of logic models.

Social Value UK, SROI L'Atelier IdF, portail Au même titre qu'il existe des outils de mesure de la performance financière pour les entreprises classiques, la mise en place d'outils de mesure de la performance sociale peut s'avérer pertinente. L'évaluation de l'impact social des initiatives à finalité sociale semble devenue nécessaire dans un contexte où l'État et les financeurs publics et privés sont de plus en plus en demande de ce type d'indicateur, par le tarissement des fonds publics à destination des organisations d'intérêt général pour les premiers, par la recherche d'un investissement socialement « rentable » pour les seconds. Dans ce contexte, et compte tenu de la disparité des outils internes d'évaluation de la plupart des structures de l'économie sociale et solidaire, sont apparues plusieurs méthodes visant à uniformiser les outils et indicateurs de mesure et à mettre en place des échelles d'évaluation. L'objectif de cette démarche consiste alors à trouver parmi ces méthodes celle qui est la plus adaptée. » www.avise.org

J-PAL (Abdul Latif Jameel Poverty Action Lab) J-PAL, Laboratoire d'action contre la pauvreté, a été créé en 2003 au département d'économie du MIT (Massachusetts Institute of Technology). Depuis, il s'est développé en réseau mondial de professeurs unis par leur utilisation de l'évaluation aléatoire comme moyen de répondre à des questions critiques pour la lutte contre la pauvreté. La mission de J-PAL est de réduire la pauvreté en faisant en sorte que les politiques soient fondées sur des preuves scientifiques. J-PAL cherche à atteindre cet objectif : en conduisant des évaluations d’impact rigoureuses - Les chercheurs de J-PAL réalisent des évaluations aléatoires pour tester et améliorer l’efficacité de politiques et de programmes visant à réduire la pauvreté.en influant sur les politiques - L’équipe Politiques Publiques de J-PAL procède à des analyses coût/efficacité pour déterminer les meilleures manières d’atteindre un objectif politique.

J-PAL / MIT, Free Online Course Materials Positive Planet, "Facts and figures" Positive Planet bases its methodology of project evaluation on the 5 criteria of the DAC (Development Assistance Committee) of the OECD: Relevance, Effectiveness, Efficiency, Impact and Sustainability. Positive Planet therefore commits to developing its M&E – to justify the trust of its public and private sponsors – by maintaining clear and transparent presentations of the authentic results of its projects. The M&E enables Positive Planet to ensure detailed controls, measuring impact and capitalizing on acquired experiences in the different lines of work, shared between our network experts. The sometimes fastidious and always rigorous evaluations, which are codified by procedures and norms, give a fair indication of the Positive Planet commitment on the ground. In the light of its strategic re-orientation, Positive Planet will be handling projects which are more diversified, in terms of their nature, and more ambitious as regards their range.

Revue Tracés (2011), La Méthode d’évaluation aléatoire : apports et limites 1 Je remercie Luc Behaghel pour son avis sur une première version de cet article. 2 Pour une présentation très complète mais plus technique, voir Duflo et al. (2007). 1L’usage de la méthode aléatoire dans le cadre de l’évaluation des politiques publiques se développe aujourd’hui plus que jamais1. La France est l’un des pays où cette méthode a connu un essort aussi vif que récent, sous l’impulsion notamment du haut-commissariat aux Solidarités actives et à la Jeunesse. Précisons notamment que cette méthode n’est pas nouvelle, elle a d’abord été introduite par les sciences médicales et dans l’évaluation des médicaments. Aujourd’hui, aucun nouveau médicament n’est mis sur le marché sans être d’abord éprouvé par un dispositif d’évaluation aléatoire. La plus-value d’une politique publique 3En réalité, lorsque l’on introduit un programme, c’est en général la question de la plus-value qui est posée. 4L’inconvénient de ce concept est qu’il n’est bien sûr pas calculable directement. 161. 172.

Related: