Evaluación de los programas de educación y promoción de la salud

E Díez

 

ALGUNAS DEFINICIONES

Existen varias definiciones de ‘educación para la salud’, ‘promoción de la salud’ y ‘evaluación’. Según Green ‘educación para la salud’ es cualquier combinación planificada de experiencias de aprendizaje diseñada con la intención de predisponer, facilitar y reforzar comportamientos voluntarios que conduzcan a la salud en individuos, grupos y comunidades1. En este caso la palabra clave parece ser ‘aprendizaje’.

Según los mismo autores, la ‘promoción de la salud’ es cualquier combinación planificada de apoyo normativo, organizativo, político y educativo a las acciones y condiciones de vida que conduzcan a la salud de los individuos, grupos o comunidades. En esta conceptualización destaca el ‘apoyo a condiciones de vida sana’. Según una de sus primeras definiciones la promoción de la salud es un proceso multifactorial que actúa en individuos y comunidades, a través de la educación, la prevención y las medidas de protección2. Más adelante, la OMS la acuña y define como ‘el proceso que facilita que las personas aumenten el control de su salud y, de este modo, la mejoren’3. Las acciones propuestas por el movimiento de promoción de la salud auspiciado por la OMS son el establecimiento de políticas públicas saludables, de ambientes favorables a la salud, el refuerzo de la participación comunitaria, el desarrollo de habilidades personales y la reorientación de los servicios de salud. La propuesta de la OMS, vigente desde hace casi 20 años, pone el acento en el ‘control’ individual y colectivo de los determinantes de salud, y enuncia las cinco diversas acciones anteriores como medios para aumentar este control. Así que las palabras clave para ‘promoción de la salud’ parecen ser ‘apoyo a condiciones de vida que conduzcan a la salud’ bajo el ‘control de las personas’ (afectadas), e incluye medidas educativas y políticas. El reconocimiento de que la promoción de la salud va mucho más allá de la conducta necesita todavía ser recordado en muchos ámbitos4.

Y, por su parte, según el diccionario de la RAE ‘evaluación’ es sinónimo de valoración, tasación, apreciación. La evaluación de la ciencia médica, en los últimos decenios, ha experimentado un desarrollo enorme porque sirve, principalmente, a dos finalidades: la investigación y la gestión.

 

EVALUAR, ¿PARA QUÉ?

La investigación evalúa lo nuevo o desconocido. Se investiga para conocer causas y efectos, y, en general, para reducir la ignorancia humana. En este caso la evaluación forma parte de la investigación. En cambio, en gestión se evalúa principalmente para tomar decisiones sobre asignación de recursos. Tanto en el ámbito personal, como en el profesional, se evalúa continuamente.

En el campo de la promoción de la salud, la evaluación proporciona información y argumentos tanto para comprender los cambios ocasionados por la acción emprendida como para determinar en qué grado las actividades desarrolladas han sido eficaces y eficientes y mediante qué procesos se han producido estos cambios. En la mayor parte de las intervenciones clínicas que ejercen los profesionales sanitarios, sólo se realizan evaluaciones de proceso, y, pocas veces, de resultados. En general los departamentos y servicios recogen periódicamente en sus memorias el número de vacunas administradas, pero no el número de hepatitis ocurridas en vacunados o no vacunados.

En cambio, en el contexto de la promoción y de la educación para la salud, la medida de los cambios atribuibles a la actividad tiene todavía mucho valor, tanto para el sanitario como para la gerencia. Por poner un ejemplo, importa el número de talleres de tabaquismo llevados a cabo en un centro penitenciario, el número de internos participantes en relación a los previstos, la calidad y satisfacción con el desarrollo de las sesiones, pero también el porcentaje de abstinentes al mes, a los 6 meses y al año, así como la implantación progresiva en diferentes módulos. Esto indica que los procesos que inducen al cambio todavía no son meridianamente claros para la ciencia, para la opinión pública, y para los finaciadores, y que, en definitiva, todavía se consideran todos esos procesos una innovación cuyo valor está por demostrar. La tabla I resume las principales aportaciones de la evaluación.

 

¿LA PROMOCIÓN DE LA SALUD FUNCIONA?

La eficacia de la promoción de la salud está demostrada en buena parte de los ámbitos de salud más relevantes en los países desarrollados. En primer lugar, la contribución de diferentes factores evitables a la mortalidad está claramente cuantificada desde los 90. Por ejemplo, en España, el tabaco contribuye directamente al 16% de la mortalidad y el exceso de peso en adultos a un 8,5%5. Y la efectividad de acciones individuales, grupales, comunitarias y políticas frente a los determinantes de las enfermedades cardiovasculares, también está claramente demostrada, como por ejemplo en la experiencia de Finlandia, donde la mortalidad por enfermedad cardiaca ajustada por edad se redujo un 65% en 25 años de intervención comunitaria6. El documento ‘La evidencia de la eficacia de la promoción de la salud’, un informe, traducido al castellano, de la Unión Internacional de Promoción y Educación para la Salud de la Comisión Europea, recopila y valora la ‘evidencia’ (las pruebas) de la eficacia de la promoción de la salud en términos de impacto social y económico en los campos de la salud mental, el envejecimiento, la juventud desescolarizada, la enfermedad cardiaca y otros.

ENTONCES, ¿POR QUÉ LA PROMOCIÓN DE LA SALUD NO ES PRIORITARIA?

Prisión, hospital, morbimortalidad, VIH-VHCEl poco reconocimiento social y profesional de la promoción de la salud en las últimas décadas tiene que ver con tres aspectos:

— Mucho de lo que se denomina educación sanitaria y promoción de la salud no es ni eficaz, ni efectivo ni eficiente. Suele deberse a la insuficiente dosis y a que a menudo se basa en la transmisión de conocimientos para cambiar los comportamientos..

— Cuando las intervenciones de promoción de la salud funcionan no tienen casi recursos, valedores, publicidad, difusión ni mercadotecnia, y compiten en el mercado con intereses potentísimos: empresas farmacéuticas, alcoholeras, alimentarias, mercado de drogas.

— Y, además, no se evalúa tanto como las innovaciones sanitarias (tabla II).

• porque los métodos más populares de evaluación médica no son fácilmente aplicables a este campo: hacen falta muestras grandes, habilidades profesionales en ciencias de la conducta, en informática, en estadística, grupos control ética y políticamente aceptables;

• porque presenta efectos pequeños, en comparación a algunos farmacológicos, por ejemplo, aunque perfectamente comparables en cuanto a conductas de compra o conocimientos en currículo educativo;

• porque presenta resultados a menudo a largo plazo, demasiado tarde para los decisores de la asignación de recursos, que suelen ser de empresa pública y renovables cada 4 años..

 

NUEVOS TIEMPOS PARA LA PROMOCIÓN DE LA SALUD: MEJOR INTERVENCIÓN Y MEJOR EVALUACIÓN

Afortunadamente, la escena evoluciona. Las sociedades maduras reconocen y exigen a sus administraciones medidas de promoción y protección de la salud en sus vidas. Exigen barrios seguros, menos accidentes de tráfico, oficinas sin tabaco, menos cáncer, más atención a los mayores, mejor transporte, menos listas de espera, alimentos, agua y aire en condiciones. Lo que no tiene completamente claro la comunidad, y tampoco quienes deciden lo que se hace, es qué funciona, qué no funciona, qué es más barato y, sobre todo, porqué. Y aquí es donde los enfermeros, médicos, educadores y gestores pueden colaborar: en el diseño de intervenciones y en su evaluación.

Por una parte, los profesionales deberían negarse a hacer intervenciones presuntamente educativas que no lo sean, es decir, intervenciones de baja calidad. Del mismo modo que cualquiera no puede desarrollar una vacuna, o un nuevo fármaco, cualquiera no puede inventar una intervención educativa. Su desarrollo y administración no son gratuitos, y no sólo puede ser ineficaz, sino que puede ser contraproducente.

Las intervenciones que funcionan tienen varias características comunes6:

1. Se basan, explícitamente, en modelos teóricos de cambio conductual, los cuales sistematizan los procesos humanos de aprendizaje. Permiten acabar con el: ‘si yo ya se lo digo, pero no hace caso.’

2. Exploran previamente como está lo que se desea mejorar, cómo lo ve el/la afectado, por qué ocurre y, de entre esos determinantes, cuales van a poderse modificar con nuestro menguado esfuerzo. La participación de la población diana en el diseño ayuda al éxito, aunque la población diana no sabe mejor que nadie cual será la actividad educativa más efectiva, del mismo modo que no sabe operarse de cataratas.

3. Sus autores leen, revisan, estudian y copian al máximo las intervenciones que ya han funcionado.

4. Prueban a pequeña escala las propuestas antes de emprender intervenciones amplias.

5. Se administran en dosis elevadas: no menos de 4 sesiones, separadas unos días entre sí, para conseguir cambios detectables.

 

TIPOS DE EVALUACIÓN

La otra gran contribución es la evaluación. El propio diseño de la intervención incluye los parámetros a evaluar y prevé la forma de hacerlo. Si, por ejemplo, deseamos que los internos reduzcan el consumo de grasas saturadas estudiaremos, o estimaremos, el consumo actual, y los factores individuales y de entorno que inciden en el consumo. La publicidad a la que se exponen, la disponibilidad de comida atractiva alternativa a las grasas, la composición de los menús, las preferencias individuales, las costumbres y creencias personales, o los conocimientos sobre la composición de los alimentos serán probablemente variables a modificar en mayor o menor medida. Cada uno de estos factores debería ser medido antes y después de la intervención, de modo que, con los datos, se pueda reflexionar sobre lo que ha funcionado o ha fallado. También nos interesará saber cuantos han asistido al taller de alimentación que hemos ofrecido, si les ha gustado, si han visto los carteles o los programas en la televisión del centro. Por otra parte, necesitaremos saber como juzgan la calidad de los materiales que hemos producido, su comprensión, el atractivo del formato, de los textos, fotos o dibujos. Y, por último, si podemos, desearemos saber si hay cambios en los perfiles lipídicos de la población a la que nos dirigimos, e incluso cambios en la patología cardiovascular.

Cada una de estas cuestiones constituye un tipo de evaluación clásica8, 9:

• la evaluación formativa,

• la evaluación de proceso,

• la evaluación de resultados,

• la evaluación del impacto.

La evaluación formativa es inhabitual en la administración y, en cambio, de uso mayoritario en la empresa privada. Pretende medir los puntos fuertes y débiles del material o componentes de la intervención antes de la implementación. Recurre a los grupos focales, los estudios de legibilidad y, sobre todo, al sencillo y eficaz pretesto de materiales. Se trata de buscar el rango de opiniones sobre la propuesta de material (folleto, anuncio, fotonovela, opúsculo...), de forma no representativa, mediante una muestra pequeña, de 25 a 75 personas. Existen formatos de una página adaptables a cada producto. Indaga sobre lo que entiende el lector (comprensión), hasta que punto es atractivo, si hay algo que moleste, si aprende algo nuevo y si le persuade. Los resultados permiten superar los propios juicios, los de los diseñadores profesionales y los de los gestores que lo financian. Se hace, al final, lo que los interesados prefieren.

La evaluación del proceso examina la cantidad y calidad de dosis recibida por la población diana.

Como en resto de tipos de evaluación, la austeridad en la elección de indicadores es básica. Más indicadores no es mejor, sino peor.

Los indicadores de proceso valoran:

• la proporción alcanzada de la población diana (cobertura),

• la proporción de componentes del programa que recibe cada participante,

• la satisfacción de los participantes,

• la fidelidad a lo programado.

En la evaluación de proceso es básica la referencia a un denominador. No sirve decir 17 asistentes, sino 17 asistentes sobre 265 a los que se lo ofrecimos (instrumento: registro). Es muy informativa la distribución porcentual de personas que han participado, por ejemplo, en una, dos, tres o cuatro de las sesiones programadas (instrumento: registro). Por su parte, la opinión anónima sobre la propia actividad, el monitor, los materiales o la sala ayuda a detectar problemas y a mejorar en cualquier caso (instrumento: encuesta post-sesión). Por último, se puede estimar hasta que punto el componente se administra según lo previsto (instrumento: encuesta post-sesión al monitor/a, observaciones, filmaciones/grabaciones). Subiendo de nivel, la evaluación de resultados pretende medir los cambios en la población diana ocurridos por nuestra causa o culpa. Y aquí hay dos frentes: qué se mide (conductas, cambios organizativos, conocimientos, observaciones, habilidades...) y cómo se mide (diseño evaluativo e instrumento). Lo que se mide viene determinado por los objetivos generales y operativos del programa. Si deseamos que la proporción de internas que hace ejercicio físico intenso dos veces por semana pase del 8 al 12%, deberemos medir antes y después la proporción. Además, podemos haber promovido la ampliación de la oferta de actividades deportivas: mediremos la disponibilidad anterior y posterior. Podemos haber ampliado el horario de acceso al gimnasio, y mediremos la ampliación o no ampliación horaria. Además, podemos haber dado a conocer los beneficios de la actividad física intensa en una sesión con materiales. Mediremos las actitudes favorables a la práctica de ejercicio intenso y los conocimientos sobre el número de sesiones recomendables semanales, antes y después. Estos son los resultados básicos del programa y permiten tomar decisiones. Obviamente, dependiendo de los recursos disponibles, a mayor especificación de la consecución de los subobjetivos, más información sobre la eficacia del programa7, 9.

Otra cuestión fundamental es el diseño evaluativo. Un diseño en el que sólo se mide lo que pasa después de la intervención es francamente débil y es difícil incluso para el investigador extraer conclusiones. En general se adoptan diseños pre-post, que miden variables antes y después de la intervención, tanto entre los participantes como por medio de encuestas poblacionales. Si bien son bastante informativos y fáciles de llevar a cabo, presentan una debilidad asociada a esta pregunta: ¿hubiera ocurrido lo mismo sin nuestra intervención? Los diseños con grupo control protegen de esta limitación. Aunque se lleve a cabo simultáneamente a nuestra intervención una campaña nacional de promoción del ejercicio físico dirigida a población general en televisión, el grupo control o de comparación nos informará sobre el alcance de la campaña nacional y el de intervención sumará ambas intervenciones. Por lo tanto, la diferencia final entre los dos grupos será debida a nuestra intervención.

Esta es la base de los ensayos clínicos o comunitarios aleatorizados, los diseños más seguros y reconocidos en las ciencias de la salud. Aleatorizar quiere decir asignar al azar a los participantes (individuos del estudio) a un grupo u otro, de forma que se reparte la variabilidad desconocida y se igualan al máximo los dos grupos. Si bien esto se puede y debe hacer siguiendo unas normas estrictas tanto en el desarrollo como en la publicación de resultados en la experimentación de fármacos y tecnologías (CONSORT)10, es prácticamente imposible aplicarlo en ámbitos sociales y de promoción de la salud, en general por problemas de factibilidad, contaminación y éticos.

En el campo de la salud pública y la promoción de la salud, cuando se ha evaluado, se han aplicado con frecuencia diseños quasiexperimentales. En ellos el grupo control, aunque parecido, no se asigna al azar, o bien el grupo control no es ni siquiera muy parecido. Tras un debate intenso en los últimos años, se está avanzando en el establecimiento de una normativa de desarrollo y publicación similar a la CONSORT y denominada TREND11, que facilitará extraer conclusiones a partir de este tipo de estudios.

La evaluación del impacto es la evaluación más global. Es deseable porque muestra los resultados a largo plazo, y los cambios en salud, sociales, económicos u otros derivados de la intervención. Sin embargo, se puede llevar a cabo muy pocas veces, porque es costosa en tiempo y dinero, y lo hacen organismos internacionales, administraciones o universidades. El informe mencionado antes sobre la efectividad de la promoción de la salud presenta una revisión del impacto económico, social y de salud de de diferentes intervenciones6.

Para concluir, aunque el debate sobre métodos continúa12,13 en la tabla III se presentan cinco recomendaciones que ahora mismo pueden ayudar a llevar a cabo evaluaciones de promoción de la salud. En el ámbito específico del medio penitenciario, la Guía de Educación para la Salud en el Medio Penitenciario ofrece una amplia revisión de métodos y estrategias de gran aplicabilidad14.

 

REFERENCIAS BIBLIOGRÁFICAS

1. Green WL & Kreuter WM. Health Promotion Planning: An Educational and Ecological Approach. Mountain View: Mayfield Publishing Company, 1999.

2. Tannahill A. What is health promotion? Health Educ Journal 1985; 44: 167-8.

3. World Health Organization. The Ottawa Charter: Principles for health promotion. Copenhagen: WHO Regional Office for Europe, 1986.

4. Colomer C, Álvarez-Dardet C. Promoción de la salud y cambio social. Barcelona: Masson, 2001.

5. Banegas JR, Rodríguez-Artalejo F, Graciani A, Villar F, Herruzo R. Mortality attributable to cardiovascular risk factors in Spain. Eur J Clin Nutr 2003; 57: S18-21.

6. International Union for Health Promotion and Education. Eficacia de la promoción de la salud. En: La evidencia de la eficacia de la promoción de la salud. Configurando la salud pública en una nueva Europa. Un informe de la Unión Internacional de Promoción de la Salud y Educación para la Salud para la Comisión Europea. Versión española. Madrid: Ministerio de Sanidad y Consumo, 2000.

7. Bartholomew K, Parcel G, Kok G, Gottlieb N. Intervention mapping. Designing theory and evidence based helath promotion programs. New York: McGraw Hill, 2000.

8. US Department of Health and Human Services. Making health communication programs work. A planners guide. Bethesda: National Cancer Institute, 1992.

9. Hawe P, Degeling D, Hall J. Evaluación en promoción de la salud. Guía para trabajadores de la salud. Barcelona: Masson, 1993.

10. Moher D, Schulz KF, Altman DG. The CONSORT statement: revised recommendations for improving the quality of reports of parallel-group randomised trials. Lancet 2001; 357: 1191-4.

11. Des Jarlais DC, Lyles C, Crepaz N; TREND Group. Improving the reporting quality of nonrandomized evaluations of behavioral and public health interventions: the TREND statement. Am J Public Health 2004; 94: 361-6.

12. Speller Viv, Learmonth A, Harrison D. The search for evidence of effective health promotion. BMJ 1997; 315: 361-3.

13. Oakley A. Using random allocation to evaluate social interventions: three recent UK examples. Annals Am Academy Political and Social Science 2003; 589, 170-89. 14. Arroyo JM, Bedía M, Ferrer V, García S, Gómez P, Gutiérrez FJ, Martín M. Guía de educación para la salud en el medio penitenciario. Valdemoro: Ministerio del Interior y Ministerio de Sanidad, 2003.

14. Arroyo JM, Bedía M, Ferrer V, García S, Gómez P, Gutiérrez FJ, Martín M. Guía de educación para la salud en el medio penitenciario. Valdemoro: Ministerio del Interior y Ministerio de Sanidad, 2003.

 

CORRESPONDENCIA

E Díez
Agència de Salut Pública de Barcelona
Pl. Lesseps, 1
08023 Barcelona
E-mail: ediez@aspb.es

Refbacks

  • No hay Refbacks actualmente.