DOSSIER
RESUMEN LA EVALUACION DE PROGRAMAS ANTE EL RETO DEL BIENESTAR SOCIAL
FUNCIONES SOCIO-POLITICAS EN LA HISTORIA DE LA EVALUACION DE PROGRAMAS DE INTERVENCION SOCIAL
FUNCIONES DE LA EVALUACION DE PROGRAMAS EN LA CONSTRUCCION SOCIAL DEL CONOCIMIENTO
LA ARTICULACION DE TODOS LOS AGENTES SOCIALES IMPLICADOS EN LA EVALUACION DE PROGRAMAS
En este artículo se plantea una reflexión crítica sobre distintas contribuciones que la investigación valorativa también denominada evaluación de programas, puede hacer al bienestar social. Se discute como dichas contribuciones dependen en parte de la óptica de cada conjunto de agentes implicados en los procesos evaluativos, pudiendo tener cada uno de ellos intereses distintos. Se cuestiona que las funciones sociales de la evaluación se limiten a las tradicionales evaluaciones de ejecución (o retrospectivas), y a la facilitación de la toma de decisiones (o prospectivas), analizando como otros potenciales productos de los procesos evaluativos tienen también gran trascendencia social: la mejora de los conocimientos científicos acerca del funcionamiento de los fenómenos sociales sobre los que se interviene, y la mejora de las técnicas de intervención social. Todo ello apunta hacia la importancia de construir una cultura de la evaluación que considere los intereses y la participación de todos los agentes sociales implicados, en la cual los profesionales no sólo evalúen por encargo, sino por propia iniciativa, para mejora de su propia adquisición de conocimientos.
Evaluación de programas. Investigación valorativa. Bienestar social. Conocimiento social. Intervención social.
In this article a critical reflection about different potential contributions of evaluative research -also known as program evaluation- to social welfare is presented. How such contributions partly depend on the different clusters of implyed agents, and on their distinct interests, is discussed. That social functions of evaluation keep limited to evaluation of implementation (retrospective) or to facilitate decision-making (prospective) is questioned; other potential outputs of evaluative processes having great social importance are analyzed: improvement of scientific knowledge on the functioning of the social phenomena which is the target of our intervention, and improvement of social intervention techniques. The importance of constructing an evaluative culture taking into account interests and participation of all implyed social agents is pointed out; in such culture professionals should not evaluate only under mandate, but also on their own initiative, to improve their knowledge capacity.
Program evaluation. Evaluative research. Welfare. Social knowledge. Social intervention.
Cuando hablamos de programas de intervención social (socioeducativos, sociosanitarios, psicosociales) nos referimos a situaciones que se dan en nuestra sociedad y que queremos mejorar. El punto de partida puede ser una situación considerada negativa (independientemente de cómo la denominamos: problema social, necesidad social, marginación, inadaptación, etc.), o bien un riesgo de que suceda algo considerado no deseado (entonces hablamos de prevención), o bien simplemente una aspiración compartida para mejorar alguna cosa (entonces hablamos de «desarrollo» o de «promoción de», por ejemplo, de la comunidad, de la salud, de la calidad de vida) (Casas, 1996a),
Parece fácil consensuar que el objetivo último de cualquier programa de intervención social, de cualquier política social, es el aumento del bienestar social de la población destinataria. De hecho, así lo encontramos en muchas definiciones.
Podríamos resumir, pues, la evaluación de programas de intervención social como una actividad rigurosamente fundamentada que pretende saber hasta qué punto hemos mejorado el bienestar del un conjunto de personas con el conjunto de intervenciones desarrolladas en el seno de un programa, y hasta qué punto podríamos haberlo hecho mejor y de forma más eficiente.
Si la evaluación de programas está al servicio de la intervención social, una pregunta crucial se impone: ¿Cómo puede la evaluación de programas contribuir al bienestar social?
A pesar de que la definición que hemos dado de evaluación de programas parezca clara, la historia se ha encargado de demostrarnos que no lo es. Como ya señalaban Shadish, Cook y Leviton (1991), cuando evaluamos un negocio, el criterio «beneficio» que utilizamos para juzgar si funciona bien está bastante claro para todos, y todo el mundo está de acuerdo en que el criterio monetario y el referente temporal son las coordenadas clave para evaluar los resultados. Si por un momento pensamos solamente en los programas de intervención social desarrollados por administraciones públicas, es fácil ver que el problema del «objetivo último», o de las «coordenadas clave para evaluar resultados» no es tan fácilmente delimitable como en la empresa privada con ánimo de lucro, posiblemente porque la realidad es que no existe un solo objetivo último acotable, o en cualquier caso, no es solamente el bienestar social.
Nos hallamos entonces con una situación muy particular para la metodología científica: tenemos un objetivo que a menudo no se puede delimitar claramente, no tanto por la falta de buenas definiciones nomínales y operacionales, sino porque los agentes que configuran el contexto social en el que se persigue el objetivo tienen dificultades muy considerables para conservar su delimitación. Dicho más llanamente: ¿qué quiere decir «mejor» socialmente? ¿para qué y en qué sentido debemos hacer mejor y más eficiente un programa?
Cuando evaluarnos programas sociales, frecuentemente no está claro qué quiere decir «bienestar social» como objetivo (sorprendentemente está mucho menos claro qué quiere decir «social», que no «bienestar»), ni está claro que este objetivo último, aparentemente «universalizable», defina las coordenadas más importantes de lo que se quiere conseguir, en el curso del tiempo, ya que siempre aparecen «otros» objetivos implícitos o explícitos,
En el desarrollo de programas de intervención social siempre tenemos una diversidad de agentes sociales implicados. Los intereses y expectativas de cada grupo de agentes pueden ser, y de hecho son, sensiblemente diferentes, dando lugar a objetivos implícitos diversos, a pesar de que existe un acuerdo genérico al entorno del «bienestar» (Casas 1995).
Entre estos agentes podemos destacar:
- los que asumen la máxima responsabilidad (políticos, presidentes de instituciones, que acostumbran a coincidir con los contratantes de hecho de las evaluaciones, y los que las pagan).
- los que gestionan (funcionarios, sobre todo de alto nivel; administradores).
- los que ejecutan las actuaciones (técnicos).
- los usuarios (o destinatarios de los servicios y actividades del programa, que muchos autores anglosajones definen como los «clientes»).
- las personas cercanas a los usuarios (familiares, usuarios potenciales, es decir, los que configuran el contexto social cercano).
- aquellos que configuran la opinión pública (ciudadanos en general, movimientos asociativos, profesionales de la información, es decir, los que configuran un contexto social más amplio, pero con implicaciones en relación al programa).
Solamente a título de ejemplo, veamos algunos diferentes sentidos del adjetivo «social»:
- que existe en la sociedad, o que se da a nivel general (societal).
- que afecta a una mayoría de ciudadanos de una colectividad (ampliamente compartido, comunitario).
- que es merecedor de respuestas por parte de otros miembros de la misma colectividad (socio-ético).
- que es responsabilidad de las instancias representativas y responsables de la sociedad (público).
- que apela a una responsabilidad colectiva (a pesar de que quizás afecte solamente a una minoría), es decir, que se considera que hay que darle una respuesta desde instancias representativas de la sociedad (psico-socio-político)
¿Quién interpretará, pues, el sentido «social» que acompaña un objetivo de bienestar?
La evaluación de programas de intervención social emergió de la colaboración entre científicos sociales y políticos sociales. Los estudiosos sitúan este nacimiento en los EE.UU. en el cambio al presente siglo, y señalan un primer período de tímida expansión a lo largo de los años 30, particularmente con los intentos de evaluación experimental de los programas sociales de la «New Deal» de Roosevelt.
La segunda, y en este caso, gran expansión coincide con el nacimiento del «movimiento de los indicadores sociales» en aquel mismo país, a finales de los años 60, y ha estado referida como la «edad de oro» de la evaluación de programas. La euforia de aquel momento hizo aparecer dotaciones presupuestarias muy importantes para evaluar un gran número de programas federales. Para comprender lo que pasó en aquel período, es útil recurrir a las hipótesis de Inglehart (1990): La crisis de conciencia social de una sociedad tecnológicamente avanzada hace emerger nuevos valores post-materiales. Con esta nueva sensibilidad no sólo hay un renovado interés por los grupos más desfavorecidos, incluido un «redescubrimiento de la pobreza», sino que hay una fuerte presión de la opinión pública exigiendo una mayor rentabilidad a los impuestos que pagan, que consideran mal invertidos en unos programas sociales que están siendo inútiles para superar, ni tan sólo paliar, los problemas existentes.
Partiendo de este análisis, los agentes sociales que contribuyen a la expansión de la evaluación de programas no son solamente los políticos (que encargan las evaluaciones) y los científicos (que diseñan evaluaciones rigurosas), considerados habitualmente. Nos aparecen como agentes (¿secundarios?) los ciudadanos y los medios de comunicación social, en forma de grupos de presión hacia los políticos y también hacia los administradores públicos (altos funcionarios).
En sus primeros momentos la evaluación de programas fue entendida simplemente como la aplicación del método científico para conocer con rigor el grado de consecución de los objetivos señalados. Pero poco a poco, los objetivos y funciones de la propia evaluación de programas se redefinen y amplían. Ello no es de extrañar, porque se va desvelando que los objetivos implícitos a menudo no son simplemente secundarios. Políticos y administradores públicos quieren disminuir la crítica social a la que se ven sometidos, quieren mostrarse sensibles a la presión que reciben, y dar respuestas rápidas y con garantías de éxito. El estallido del «movimiento» es la expresión política de la convicción de que los científicos evaluadores de programas ofrecerán esta garantía, y para conseguir esto, deciden invertir mucho dinero en ello. Está claro que, lo que había sucedido inmediatamente antes, es que los propulsores del «movimiento» se presentaron en sociedad como una ambiciosa promesa en este sentido (Bauer, 1966; Casas, 1989).
Diversos autores consideran que la consolidación de la evaluación de programas como ámbito o disciplina social aplicada bien diferenciada, se perfila definitivamente con la aparición de los dos volúmenes coordinados por Struening y Guttentag, en el año 1975, con el título de «Manual de investigación valorativa» (Brewer, 1983). La investigación valorativa (o «evaluativa», como decirnos habitualmente en castellano) se define como la aplicación de técnicas de investigación social al estudio de programas sociales a gran escala.
Pero no podemos olvidar el contexto de esta consolidación: En el año 1975 el «movimiento» de los indicadores sociales había ya entrado en crisis en los EE.UU., debido a lo que se vino a llamar «la disputa fundamental de los indicadores sociales» (Plessas y Fein, 1972): La imposibilidad de armonizar las urgencias políticas con los requisitos de rigor científico. Los presupuestos para evaluar programas se recortaron drásticamente.
Actualmente está ampliamente asumido que la evaluación de programas sociales implica algo más que una investigación en el sentido habitual del término, dado que debe incluir juicios de valor sobre el funcionamiento y/o resultados de los servicios y/o intervenciones que conforman cada programa. Generalmente se consideran seis maneras de juzgar el valor de un programa: la pertenencia, la suficiencia, el progreso, la eficacia, la eficiencia y la efectividad (Fernández-Ballesteros, 1995).
Con el paso de los años se ha ido clarificando que además de medir el grado de consecución de los objetivos perseguidos por un programa (llamado «evaluación retroactiva» o de ejecución, dado que analiza aquello que ha sucedido hasta un momento dado), la evaluación de programas tiene habitualmente otro objetivo nuclear: facilitar la toma de decisiones de cara al futuro, ya sea en relación a la continuidad o modificación del programa, ya sea en relación a otros programas destinados a la misma población o similar (actividad Ramada «evaluación proactiva» o de asistencia a la toma de decisiones). Esta segunda función se ha demostrado particularmente importante también en programas sociales de alcance internacional.
Se ha destacado por parte de múltiples autores que las funciones que juega la evaluación de programas pueden ser muchas más que las señaladas en sus objetivos explícitos. Para dilucidarlas el evaluador debería conocer con exactitud para qué se le encarga una evaluación. Es frecuente la existencia de funciones de carácter político, económico e institucional. Como señala Fernández-Ballesteros (1995), por ejemplo, hay evaluaciones que se encargan para avalar decisiones presupuestarias, para justificar actuaciones ya emprendidas, o para eliminar o substituir premeditadamente un programa con argumentos científicos.
Por la forma en que hemos presentado hasta aquí la reflexión, puede parecer que la evaluación de programas de intervención social está fundamentalmente al servicio de los políticos y de los altos funcionarios. Pero es necesario que ampliemos el espectro de la intervención social a las ONGs que participan en ella, y entonces, debemos matizar y ampliar estos dos campos de implicados, que pasan a ser: los que toman las decisiones y financian los programas, de una parte, y los gestores de programas de otra.
Evidentemente, estar al servicio de aquellos que tienen en la máxima responsabilidad sobre los programas de intervención social es una función social crucial de la evaluación de programas. Es evidente que estos agentes de la intervención encargan evaluaciones y pagan a los evaluadores. Sus diversas expectativas y necesidades han estado claramente incorporadas a los listados y objetivos de funciones de la evaluación de programas desde los años 70.
Un problema de fondo fue apuntado ya en un trabajo pionero de Campbell (1969) en el que distinguía entre políticos «experimentales», que aceptan una evaluación neutra y rigurosa de los programas sociales bajo su responsabilidad para poder tomar posteriormente decisiones adecuadas, y «políticos atrapados», que no pueden o no están dispuestos a aceptar ningún tipo de equivocación o fracaso en los programas que dependen de ellos. En este último caso, sí que parece que la evaluación de programas tiende a estar solamente al servicio del que paga.
Esta segunda situación, nada infrecuente, lleva a la confrontación de expectativas entre el contratante y el profesional de la evaluación. Si el evaluador es externo, presumiblemente sus informaciones, cuando sean sentidas como «negativas», resulten silenciadas; si es interno, queda sometido a contradicciones éticas importantes, que suelen llevarlo a «quemarse» («burning out»)
En cualquier caso queda por responder una cuestión muy crítica: ¿La evaluación de programas ha de estar al servicio de alguien más? ¿Puede, realisticamente, estarlo?
No han faltado autores que han criticado el «utilitarismo ateorético» de muchos libros sobre evaluación de programas, que se limitan a describir métodos de evaluación (Shadish, Cook y Leviton, 1991). En ciencias sociales no disponemos de muchas grandes teorías omniabarcativas de las dinámicas sociales, por la complejidad intrínseca a las situaciones que estudiamos y sobre las que se interviene. Generalmente, sólo podemos utilizar diversas microteorías o «teorías de alcance medio» para intentar comprender la dinámica de una situación que pretendemos cambiar. Para poder mejorar nuestro potencial de conocimiento hemos ido consensuando en las últimas décadas la necesidad de trabajar pluri o interdisciplinariamente. A menudo, las hipótesis de trabajo sobre las que nos anclamos, sobre todo equivalentes claros; y cada contexto social puede resultar incomparable con otros en muchos aspectos.
Por otra parte, las intervenciones sociales nos ponen ante problemas de carácter decididamente tecnológico: Una vez hipotetizado un cambio como mejorador de la situación objeto de intervención, ¿como levarlo a cabo, con qué instrumentos, procedimientos o técnicas?
A menudo apelamos a las habilidades de los profesionales. No podemos olvidar que las habilidades tecnológicas de los cirujanos o de los ingenieros están ancladas en elaborados conocimientos teóricos de las ciencias médicas y físicas respectivamente. Los profesionales de la intervención social a menudo son los primeros que han de extrapolar teorías y técnicas desde otros ámbitos, o incluso inventarlas, cuando les encargamos que afronten (generalmente con urgencia) cualquier tipo de problema nuevo sobre el que existe poca o ninguna investigación previa; después se observa que, a pesar de que sus conocimientos sean asistemáticos, constituyen la primera fuente de información para el investigador que desea profundizar en el fenómeno (por ejemplo, los primeros listados de indicadores de riesgo ante muchos problemas sociales, están generalmente construidos a partir de las observaciones de los profesionales de campo). Los profesionales de la intervención social, son pues, claramente, agentes cruciales en cualquier evaluación del programa.
Estas consideraciones nos llevan a la evidencia de que la evaluación de programas a menudo constituye una situación muy favorable para desarrollar dos funciones de particular interés científico y técnico: la mejora del conocimiento básico respecto del funcionamiento del fenómeno sobre el que se interviene, lo que equivale a decir que posibilita la contrastación de ciertas teorías e hipótesis utilizadas para establecer objetivos de cambio: y la mejora de técnicas de intervención social, incluido el aprendizaje profesional del que se denomina «buenas prácticas».
Al menos en nuestro entorno sociocultural, pocos programas de formación de los profesionales de la intervención social contemplan un conocimiento mínimamente adecuado de los procedimientos de evaluación de programas. Esto ha dificultado, sin duda, la aparición de una cultura profesional decididamente proactiva hacia la evaluación. Muchos profesionales no incorporan nunca diseños o actividades evaluativas en los programas o proyectos que están bajo su competencia. Raramente se asume que el diseño de evaluaciones puede tener y ha de tener objetivos de aprendizaje, tanto teórico (sobre el fenómeno que se intenta cambiar), como técnico (mejora de los instrumentos y procedimientos para conseguir las metas y los objetivos perseguidos).
Las evaluaciones que se realizan, cuando son asistemáticas, a menudo se emiten de forma sólo oral o esquemática, no disponiéndose de texto escrito que se pueda difundir o publicar. Son bien conocidas las dificultades de las revistas especializadas de este ámbito para conseguir buenos artículos de evaluación sobre experiencias prácticas reales. Esto comporta, de una parte que determinados errores se vayan repitiendo cada vez que se inicia un programa en lugares distintos, y de otra, que las «buenas prácticas» no sean conocidas y diseminadas.
Para acabar de complicarlo, la existencia de políticos o contratantes «atrapados» ha llevado a que la evaluación de programas sea sentida por parte de muchos profesionales de la intervención social como una imposición externa, ajena a sus intereses y que funciona sobre todo como un mecanismo de control.
Debería fomentarse una actitud diferente entre los profesionales de la intervención social, en la dirección de la sugerida cultura profesional de la evaluación. Los profesionales somos los primeros interesados y podríamos ser los primeros beneficiados de la potenciación de las funciones evaluadoras que ayudan a un mayor conocimiento de diferentes problemáticas y de las formas de solucionarlas; y este conocimiento puede redundar en un cambio más ampliamente social de la cultura hacia la solución de problemas colectivos. Es desde la defensa de un alto nivel de profesionalidad que deberíamos unir esfuerzos para garantizar que todo profesional disponga de espacios y tiempos para que no deje de realizar ambos tipos de funciones evaluadoras en todo programa o proyecto de intervención social (aprendizaje básico y aprendizaje técnico), a pesar de que nadie los encargue explícitamente.
Si elevamos el nivel de formación para la evaluación, de profesionalidad y de cultura evaluadora orientada a la ampliación social (compartida) de conocimientos, también podríamos empezar a superar algunos de los problemas que hoy están motivando serias críticas (y por añadido, a veces incluso desprestigio) de los pocos equipos que tanto en el nivel de atención primaria como en el de especializada realizan evaluaciones dentro de nuestro sistema de bienestar: La diversidad de criterios de diferentes equipos ante situaciones similares: la desconfianza entre equipos ante las evaluaciones que realizan los demás, llevando a una repetición de evaluaciones a menudo difícil de entender y que acaba bloqueando algunas actuaciones o enlenteciéndolas de forma exasperante (e incluso, reproduciendo la vivencia de que la evaluación solamente sirve para controlarse unos a otros); la falta de una articulación adecuada entre los equipos que se derivan casos evaluados; algunas dificultades para ligar la evaluación y actuación interventiva propiamente dicha, dando continuidad coherente a los procesos en los que quedan inmersos los usuarios; etc.
Durante mucho tiempo se ha pretendido estudiar el bienestar social como una realidad social «objetiva», directamente observable y medible.
En el mismo período del «movimiento» de los indicadores sociales (deberíamos volver a utilizar aquí las hipótesis de Inglehart, 1990) emergió en los EE.UU. un gran interés por estudiar las percepciones y las evaluaciones de los ciudadanos en relación a los servicios que reciben. Algunos científicos sociales defensores de esta perspectiva se atrincheraron al entorno de un concepto al que revitalizaron: La calidad de vida. La calidad de vida fue definida como una función del entorno material y del entorno psicosocial. Ha sido asumido inequívocamente que la calidad de vida no incluye solamente las dimensiones «objetivas» del bienestar, sino también las «subjetivas», es decir, las psicosociales (Casas, 1989, 1996a.).
Ante las dificultades para superar muchos de los problemas o necesidades sociales, o para sacar adelante programas de intervención social, se han ido acumulando evidencias de que juegan un papel muy destacado determinados fenómenos que forman parte del contexto social en el que pretendemos cambiar (mejorar) algo. Son fenómenos generalmente sutiles para el observador ajeno: actitudes, estereotipos, percepciones, representaciones, prejuicios, etc. que generan «resistencias», alarma social, reacciones sociales, y otras dinámicas que se oponen a los tipos y formas de mejoras sociales planteadas.
Hemos visto como en la consolidación de la propia evaluación de programas, un fenómeno determinante fue la presión de la opinión pública.
A pesar de que existen ya algunas obras especializadas (ver, por ejemplo, Howitt, 1982), creo que en el ámbito de la intervención social, y muy particularmente en lo que se refiere a la evaluación de programas, falta dedicar muchísima atención a estos aspectos, sobre todo a los emplazados en el contexto social más amplio.
Las representaciones que los ciudadanos se hacen de muchos problemas sociales y de las formas «lógicas» de solucionarlos, han evidenciado algunas investigaciones que son profundamente diferentes que las de los profesionales (Casas y Durán, 1995). Sabemos que los medios de comunicación social tienen una gran influencia sobre muchas de ellas, y que a menudo resulta más negativa que positiva. ¿Cómo contrarrestarla?
¿Se puede hacer una función didáctica con los profesionales de la información para influir en la opinión pública de forma que contribuya a la buena marcha de los programas? El interés centrado en la morbosidad y la negatividad, que arrastra a muchos profesionales de la información (y a muchos ciudadanos que conforman la audiencia), hace que parezca un reto imposible. Pero también es cierto que va adquiriendo cada vez más fuerza el llamado periodismo de investigación, más interesado en profundizar en temas de relevancia social.
¿Puede la evaluación de programas contribuir a mejorar en bienestar social influyendo sobre el contexto social más amplio? De hecho, a veces lo hace, y quizás lo que se necesita es hacerlo de forma más consciente y decidida.
La información pública, basada en datos rigurosos, sobre las posibilidades de la evaluación de programas y sobre la marcha de determinados programas, no debe estar reñida con la utilización de un lenguaje asequible. Tampoco debería amenazar el secreto profesional. En vez de esconder los errores, como si constituyesen formas de vergüenza profesional o institucional, es necesario poder explicar que nuestro traba o está lleno de fuentes incontrolables de error, pero que aprendemos mucho más a mejorar el bienestar de todos si podemos debatirlos.
La nueva cultura de la evaluación debe implicar más a los ciudadanos, como agentes de la construcción de su propio bienestar. La nueva interdisciplinariedad, debe incluir más decididamente a los profesionales de la información.
Hemos visto que el listado de agentes implicados en la intervención socia y por tanto en su evaluación de programas, es largo, y que al incorporar diferentes expectativas, su articulación puede ser compleja.
Se ha defendido repetidamente (Medina, 1988; Alvira, 1991; Fernández-Ballesteros, 1995) que la participación de todos ellos en el proceso evaluativo es muy importante para disminuir barreras y conseguir una buena cualidad en los resultados de la evaluación. Sabemos muy bien que la participación no se aprende en teoría o con discursos teóricos, sino ejerciéndola, practicándola.
El proceso para avanzar por este camino puede ser largo, y el reto global muy ambicioso, pero está claro que si a todos nos interesa mejorar el bienestar social, la evaluación de programas de intervención social nos debe interesar también a todos; a pesar de que las razones de este interés son diferentes, en vez de ponerlas en juego como contrapuestas, es necesario entenderlas como complementarias. A partir de aquí, a cada grupo de agentes sociales implicados se nos ofrecen retos diferentes (Casas, 1995). Los que asumimos y los que todavía podríamos asumir adicionalmente los profesionales de la intervención, y los científicos sociales configuran sin duda una función social de trascendental relevancia para la potenciación del bienestar social.
La articulación de todos los agentes sociales implicados ha de llevar necesariamente a una visión global de la incidencia de diferentes políticas sociales en nuestro entorno, y de su impacto social general (Casas, 1996 A). Cuando queremos evaluar el impacto, estos agentes sociales que tanto olvidamos en la evaluación de programas, los medios de comunicación social, se nos presentan como cajas de resonancia para conocer (para bien o para mal, rigurosamente o simplistamente) la importancia social de la evaluación hecha con rigor.
Insistamos: es necesario avanzar en la construcción de una nueva cultura de la evaluación de los programas de intervención social, que no esté condicionada por una especie de «Complejo de éxito inexcusable», sino fundamentada en el reconocimiento abierto de la parcialidad de todos los conocimientos y las contribuciones posibles, y en la necesidad de complementación y de articulación global del conjunto. Las funciones sociales de la evaluación consisten en la suma de las contribuciones de todos y cada uno de los agentes sociales implicados. Pero, como dicen los gestaltianos, el todo es algo más que la suma de las partes. El componente de calidad del conjunto habrá que construirlo en la práctica más allá de las aspiraciones de cada parte.