Estándares, criterios e indicadores de evaluación

Pedagogía. Psicopedagogía. Evaluación de programas. Características del constructo. Condiciones de medida y formales. Análisis. Investigación

  • Enviado por: Javi Medina
  • Idioma: castellano
  • País: España España
  • 20 páginas

publicidad
cursos destacados
Iníciate en LOGIC PRO 9
Iníciate en LOGIC PRO 9
Vamos a ver de manera muy sencilla y en un breve paseo de poco más de una hora como funciona uno de los...
Ver más información

Curso de reparación de teléfonos móviles / celulares
Curso de reparación de teléfonos móviles / celulares
El curso de Reparación de Telefonía Celular o Móvil está orientado a todas aquellas...
Ver más información


TEMA 4

ESTÁNDARES, CRITERIOS E INDICADORES PARA LA EVALUACIÓN

1

Asignatura: Evaluación de programas de intervención

Curso y Titulación: 2º de Psicopedagogía

Objetivo básico del tema:

Con el desarrollo del presente tema se pretende conseguir que el alumno pueda introducirse en la evaluación de diferentes programas de intervención psicopedagógica, utilizando determinados estándares, criterios e indicadores de evaluación.

Otros objetivos del tema son:

  • Comprender el significado y la utilidad de algunos de los estándares, criterios e indicadores que regulan la evaluación de programas.

  • Elaborar criterios e indicadores de la evaluación de programas.

  • Aplicar criterios, estándares e indicadores en la evaluación de al menos un programa de intervención psicopedagógica.

  • Contenidos:

    1. Criterios, estándares e indicadores. (pág, 3)

    2. Algunas propuestas de criterios de evaluación (pág. 5)

    3. Formalización de indicadores de evaluación (pág. 6)

    4. Algunas propuestas de indicadores de evaluación (pág. 11)

    5. Utilidad de los indicadores en la evaluación de programas (pág. 18)

    Desarrollo del tema:

    Se apoya en la explicación de los conceptos ya indicados y en la presentación de un caso práctico que requiera la elaboración de criterios e indicadores para la evaluación de programas y su aplicación a un programa concreto.

    Materiales:

  • Documento de desarrollo de los contenidos del tema, incluyendo ejemplos de criterios e

  • indicadores.

    2. Programas de intervención psicopedagógica.

    3. Bibliografía (ver pág. 19).

    Autoevaluación:

    Una vez finalizado el tema, se tratará de determinar si el alumno domina el objetivo básico del módulo. Para ello, se utilizará una prueba escrita, con varias preguntas de respuesta breve. Además el alumno completará una práctica sobre la elaboración y aplicación de criterios e indicadores para la evaluación de programas (ver pág. 20).

  • criterios, estándares e indicadores

  • Aunque se ha comentado con anterioridad, conviene recordar de nuevo que la evaluación de programas requiere valorar la información obtenida sobre los componentes de un programa comparándola con algún referente interno o externo de calidad, es decir, con un criterio. En alguna propuesta se ha planteado la posibilidad de abordar la evaluación de programas sin contar con criterios previamente establecidos (Cronbach, 1981). La idea de una evaluación sin criterios no supone, contra lo que la propia expresión parece sugerir, que se establezcan valoraciones sobre un programa sin establecer elementos de comparación; por el contrario, plantea la posibilidad de criterios emergentes al proceso mismo de evaluación.

    Comencemos, no obstante, definiendo los términos claves de este tema; criterio, estándar, indicador, descriptor... Un criterio es un objetivo de calidad respecto del que puede ser valorado un programa de intervención psicopedagógica. Ese criterio puede establecerse en forma de normas o estándares y en forma de criterios no estándares.

    Las normas (estándares) son unidades de medición (Dewey,1934). Las que se manejan en el sistema educativo proceden, según Noriega y Muñoz (1996), de dos fuentes principales:

  • Legislativa: las disposiciones legales establecen multitud de “declaraciones de expectación” obligatorias en cuanto a su cumplimiento. Reciben el nombre específico de normas legales.

  • Cuando situamos como estándar de calidad de un proyecto curricular o de un programa especial (p.e. adaptación curricular) la adaptación a las características del entorno y los alumnos, simplemente nos estamos haciendo eco de una norma legal que establece la necesidad de que el PCC u otros programas se elaboren teniendo en cuenta las características del entorno y los alumnos.

  • Epistemológica: los especialistas y profesionales en un determinado área de las Ciencias de la Educación han llegado a una serie de conclusiones que sirven para elaborar las directrices con las que guiar los procesos educativos.

  • Fijar normas o estándares de evaluación requiere de un importante nivel de consenso social, para que sean reconocidas tienen que ser aceptadas colectivamente. Así, respecto del contenido del programa un criterio estándar de calidad es la coherencia entre el programa y las bases socio-psico-pedagógicas (la teoría) en que dice ampararse. Este criterio permitiría, valorar la medida en que el programa se apoya en unos fundamentos teóricos sólidos. En relación con el desarrollo del programa, un criterio que cuenta con el suficiente respaldo entre los evaluadores es el de la conformidad con la planificación: la constatación de un nivel aceptable de conformidad entre planificación y desarrollo es un término que permite establecer la calidad de la aplicación de un programa.

    Los estándares admiten diferentes gradaciones, desde un mínimo exigible hasta un óptimo deseable. Esta característica permite conducir el proceso de evaluación a través de estándares que matizan la frecuencia o el grado de aproximación de la realidad evaluada. La cualificación métrica del estándar puede ser:

  • Por presencia/ausencia

  • Por frecuencia de aparición del mismo, como se representaría en una escala del tipo Nunca....Siempre.

  • Por valoración cualitativa, en escalas del tipo: Deficiente.... Excelente (Noriega y Muñoz, 1996: 10).

  • Los criterios no estándares adoptan la forma de argumentaciones o “razones” en las que se fundamentan las valoraciones sobre los componentes de un programa. En relación con el Proyecto Curricular de Centro, ejemplos de criterios de evaluación serían: “Atender las necesidades de los alumnos mediante la orientación y regulación de los procesos de enseñanza y aprendizaje”; “Difundir los criterios y procedimientos de evaluación para democratizar su aplicación”; “Establecer medidas de atención a la diversidad para regular el esfuerzo educativo de los alumnos”, etc. Por supuesto, que establecer criterios no estandarizados requiere previamente de un acuerdo intersubjetivo.

    La valoración de la ratio de egresados matriculados o el número de alumnos por aula pueden considerarse como criterios con referencia a normas standar cuando se utilizan en relación con la media global, mientras que el tipo de metodología docente o el sistema utilizado en la evaluación de los alumnos constituyen criterios cuyas normas no son estándar y por tanto reclaman previamente un consenso intersubjetivo para que cada observador pueda “leer el mismo valor” a partir de los datos que ofrece un instrumento o indicador. De lo contrario, lo que para unas personas son criterios de calidad para otras simplemente son “datos”(De Miguel, 1991:xxxii).

    Aplicar este tipo de criterios exige familiaridad con lo que representan los juicios y valoraciones, habilidad para proveerse de razones que justifiquen esos juicios y, por supuesto, entender porqué unos criterios y no otros resultan relevantes para juzgar el programa que se evalúa. Entonces, como señala Eisner (1993), aplicar criterios no estandarizados es una empresa intelectualmente mucho más compleja que aplicar una norma.

    Normas y criterios no estándares, para ser aplicados en un proceso de evaluación, tienen que concretarse bajo la forma de un conjunto de variables empíricamente observables y que proporcionen información -cuantitativa o cualitativa- pertinente sobre el programa objeto de evaluación, es decir, mediante indicadores.

    Cuando el indicador tiene una expresión numérica se le conoce con el nombre de índice. La ratio, la tasa, la frecuencia, etc. son ejemplos típicos de índices numéricos utilizados en la evaluación de programas. Cuando el indicador no traduce una expresión numérica sino que se define en forma escalar o aparece como valoración o argumentación se le denomina descriptor. Un descriptor puede, por tanto, indicarnos la presencia/ausencia de un elemento a evaluar, el grado de consecución del mismo o un juicio de valor/una argumentación sobre el elemento objeto de evaluación.

    2. ALGUNAS PROPUESTAS DE CRITERIOS de evaluación

    En el modelo de evaluación de programas desarrollado por Pérez Juste (1995) encontramos referencias a los criterios de evaluación recomendables en cada uno de los momentos en que dicho modelo secuencia el proceso evaluativo: el programa en sí mismo, el programa en su desarrollo y el programa en sus resultados.

    EL PROGRAMA EN SÍ MISMO

    Calidad intrínseca del programa

    1. Contenido del programa:

    • Coherencia entre el programa y las bases socio-psico-pedagógicas en que dice ampararse.

    2. Calidad técnica del programa:

    • Especificación precisa y clara de las metas.

    • Congruencia externa entre metas y teoría.

    • Coherencia interna entre las partes del plan.

    • Adecuación de los sujetos, evitándose tanto la falta de motivación cuanto la inexistencia de desafío o el exceso de exigencia (falta de realismo).

    3. Evaluabilidad del programa:

    • Claridad y precisión del lenguaje utilizado.

    • Claridad en relación con los criterios y referencias de evaluación.

    • Previsión de las decisiones a tomar.

    • Definición inequívoca de las variables.

    • Explicitación de los componentes fundamentales del programa.

    Adecuación al contexto

    1. Necesidades y programas:

    • Existencia y calidad técnica del diagnóstico de necesidades.

    • Coherencia entre las necesidades detectadas y priorizadas y el programa formulado.

    2. Establecimiento de prioridades:

    • Atendiendo a elementos de carácter técnico/experto (relevancia/ transcendencia/ gravedad, rentabilidad, inmediatez, eficacia y responsabilidad.

    • Atendiendo a elementos eminentemente subjetivos (interés/motivación expresos, expectativas personales/grupales).

    Adecuación a la situación de partida

  • Viabilidad:

    • Realismo en las metas del programa fruto de la adecuación a medios y recursos.

    • Aprovechamiento de medios y recursos mediante su adecuada dinamización, plan y orden.

    EL PROGRAMA EN SU DESARROLLO

    • Conformidad con la planificación. Lo que supone revisar la existencia de desfases/desajustes, resultados parciales y efectos no programados.

    • Incardinación con el proyecto educativo, en el que el programa evaluado puede coexistir con otros programas.

    • Satisfacción del personal

    EL PROGRAMA EN SUS RESULTADOS

    1. Valoración:

    • Cumplimiento de los niveles de logro preespecificados en términos

    • Criteriales: a partir de las metas y niveles previamente especificados técnicamente por los responsables

    • Normativos: si existiera y en casos de competencia entre programas

    • De naturaleza idiosincrática: los niveles del programa son valorados tomados en consideración el conjunto de circunstancias o sus resultados en situaciones precedentes

    2. Continuidad:

    • Control interno del plan

    • Grado de participación de los implicados

    • Sistema de revisión establecido sobre las decisiones tomadas

    3. FORMALIZACIÓN DE INDICADORES DE EVALUACIÓN

    Como ya hemos señalado un indicador supone una forma de concretar un criterio de evaluación. Lógicamente, lo que buscamos no son manifestaciones accidentales sino esenciales de aquello que pretendemos evaluar. Por tanto, un indicador debe acercarnos a las manifestaciones significativas de la realidad, debe guiarnos en los detalles básicos que nos llevan al conocimiento más fidedigno y profundo de las cosas.

    La realidad que evaluamos puede aparecer bajo formas externas controlables y observales o bajo otras que están implícitas en un modo de actuar cotidiano. Pues bien, el indicador debe hacer referencia tanto a lo externo como a lo interno; así, “indicar” es dar a entender o significar, a través de indicios o señales, el conocimiento de lo oculto, o al menos, de lo desconocido. Pero, además, el indicador no sólo informa del presente sino que -como señala Lázaro, 1992:480- puede convertirse en el “vestigio” o “huella” de algo que ha sucedido; el indicador localiza situaciones del presente con referencia a lo que ocurre en este momento como si son restos del pasado.

    Pero, sobre todo, el indicador debe definir el objeto al que se refiere. Lo que implica una relación de dependencia del indicador respecto al objeto referido (el indicador adscribe propiedades a aquellos objetos que indica), relación que supone objetividad. Esa objetividad no implica totalidad sino complementariedad, dado que el indicador se refiere tan sólo a una parte de lo que podría estudiarse y desde luego esa referencia está asociada a un espacio y un tiempo determinados.

    3.1. CARACTERÍSTICAS Y REQUISITOS EN LA FORMULACIÓN DE INDICADORES

    Un punto de partida en el tratamiento de este tema es el que establece Lázaro (1992), que identifica tres grandes dimensiones en torno a las que se agrupan las características y requisitos a tener en cuenta en la elaboración de indicadores: las características del constructo, las condiciones de medida y las condiciones formales.

    3.1.1. Las características del constructo

    Las características del constructo aluden a la relación entre el indicador y el objeto al que se refiere, es decir, estudian hasta qué punto el indicador es una guía o señal adecuada hacia un referente. Desde este punto de vista, el contenido del indicador debe responder a las siguientes condiciones:

  • Significatividad de la relación entre el indicador y las propiedades del objeto que señala. En esencia, el indicador debe recoger alguna propiedad del objeto evaluado. Por ejemplo: si el referente a evaluar dentro de un programa son los “procesos de enseñanza”, un indicador como “tiempo dedicado a la coordinación y revisión de la enseñanza” debería tener que ver con algún aspecto de los procesos de enseñanza; efectivamente, en este ejemplo de indicador ese aspecto es la coordinación de la enseñanza.

  • Relevancia del indicador. La propiedad recogida por el indicador puede ser esencial o accidental, siendo el indicador más relevante cuanto mejor represente (lo dice es más atribuible) al objeto con el que se relaciona. Por ejemplo: con el referente anterior, un indicador como “ratio de asistencia a las clases” puede ser menos relevante que otro como “número de horas dedicadas a la docencia en el curso en relación con las previstas”.

  • Teleologicidad del indicador. La congruencia descriptiva del indicador debe estar en función de los objetivos y fines pretendidos, siquiera para un momento o época determinada en el que se desarrolla un programa. Un indicador puede ser válido para valorar la eficacia de un programa pero no para valorar las posibilidades de mejora que introduce. Así, el indicador “tiempo dedicado a la coordinación y revisión de la enseñanza” podría ser adecuado para evaluar la eficacia de los procesos de enseñanza en el desarrollo de un programa, mientras que un indicador como “la descripción de los sistemas establecidos para efectuar el seguimiento de la docencia y la revisión de las enseñanzas” parece más adecuado para evaluar las posibilidades de mejora de un programa en lo que respecta a los procesos de enseñanza.

  • Utilidad del indicador. Cualquier indicador ha de reclamar una información que contribuya a la definición del objeto de evaluación, describa sus situaciones, defina las problemas que le atañen y permita establecer predicciones. Un indicador como “tasa de egresados en relación con los matriculados” permite definir el objeto de evaluación -los resultados de un programa- y establece una relación que puede permitir conocer aspectos claves relacionados con las exigencias académicas, la dedicación de los estudiantes, la calidad de la docencia, etc.

  • Complementariedad-totalidad. Cada indicador no puede ser interpretado aisladamente, sino que se le debe relacionar con el sistema de indicadores al que pertenezca. A partir de esa relación puede determinarse la “potencia relativa” que posee cada indicador, es decir, el sentido de progreso en el conocimiento de las cosas que se alcanza gracias a la organización y normalización de un sistema de indicadores.

  • 3.1.2. CONDICIONANTES DE MEDIDA

    Señala Lázaro (1992) que en todo indicador existe un componente de “inferencia predictiva”, de modo que la información que obtenemos a través del indicador (la parte observable de aquello que evaluamos) presupone la existencia del objeto al que se refiere el indicador. Cuando utilizamos un indicador como “calificaciones obtenidas por el alumno a lo largo del curso”, al menos estamos aludiendo a la posibilidad de que en el programa evaluado los resultados que obtienen sus usuarios se establecen a partir de un sistema de calificaciones.

    La posibilidad de establecer inferencias a partir de los indicadores permite conocer si un indicador es significativo -lo describe adecuadamente- respecto a lo medido (significatividad o representatividad) y si ese indicador describe más y mejor que otros indicadores aquello que mide (relevancia). Por otra parte, un indicador puede depender de otros indicadores bien porque sea un análisis detallado de un indicador más amplio (“número de alumnos que utilizan los Servicios de apoyo a la docencia” y “número de Servicios de apoyo a la docencia”) o porque secuencial y temporalmente no se puede producir sin la existencia de otros anteriores (“tasa de costo por graduado” y “presupuesto por alumno”).

    En su calidad de medida, junto a los elementos ya indicados, todo indicador ha de cumplir las siguientes condiciones:

  • Observable. El indicador tiene que hacer referencia a características, manifestaciones o elementos del objeto evaluado que puedan ser analizadas y constatadas. Ha de ser una realidad que permita replicación y verificación, por tanto no debe hacer referencia a hechos ocasionales o meramente circunstanciales. Por ejemplo, un indicador como “visitas programas a los museos de Sevilla” es un elemento menos observable que “número de actividades extraescolares organizadas en el centro”, dado que el lugar o el itinerario de las visitas puede modificarse en cualquier momento.

  • Aplicabilidad. Los medios y recursos que se utilicen para realizar la observación y recoger la información han de ser posibles y coherentes con los fenómenos observados. Por ejemplo, un indicador como “coherencia entre el programa y las bases teóricas en que se fundamenta” puede apoyarse en el análisis crítico de los documentos que recogen la teoría en que dice basarse el programa y su contraste con la instrumentación (diseño, materiales, etc.) propia del programa. Una lista de control podría ayudar a anotar las coincidencias o carencias entre lo establecido en la teoría y lo plasmado en el programa.

  • Las fuentes deben ser accesibles a los objetivos de la evaluación. Si se utilizan fuentes inadecuadas, pero más accesibles, pueden desvirtuarse los datos y la significatividad de los mismos para el objeto de evaluación. En este sentido, es necesario seleccionar los indicadores que más se ajusten al tipo de fuentes a las que se tiene acceso, si bien procurando no limitar la definición del objeto de evaluación a la existencia de determinadas fuentes relativamente accesibles al evaluador. Por ejemplo, un indicador adecuado para conocer el impacto de un programa puede ser determinar el “tiempo entre la finalización de un programa y el desempeño de la actividad profesional asociada al mismo”; pues bien puede no estar accesible la información que necesitamos (no hay registro en la entidad organizadora del programa sobre los niveles de empleo de los egresados o bien no se cuentan con direcciones de contacto fiables de éstos), pero también puede ocurrir que dicho indicador no se incluya en el sistema de indicadores porque no exista el registro del nivel de empleo de los egresados y el evaluador estime demasiado costoso sondear a los propios implicados a pesar de contar con sus direcciones actualizadas.

  • Establecimiento de un sistema de codificación. Es preciso que el sistema de indicadores cuente con un esquema paralelo que permita anotar, valorar y reflejar las manifestaciones observadas. En ese sistema de codificación, la información proporcionada por los indicadores puede convertirse en índices (valores númericos que reflejan tasa, ratio o frecuencia) o en descriptores (que reflejen la presencia/ausencia de un elemento o el grado de consecución del mismo). La consideración de los indicadores en forma de índices no debe hacernos olvidar que el tratamiento de tales valores numéricos debe respetar algunas reglas:

    • No deben sumarse indicadores cuando uno es causa de otro (más de tres suspensos-repetición de curso).

    • No deben sumarse indicadores cuando uno forma parte del otro, el peso dado al genérico se debe distribuir entre los que lo componen (calificaciones obtenidas por el alumnado a lo largo de los cursos - calificaciones en matemáticas en primer curso).

    • Si los objetivos o finalidades de cada indicador son diferentes, no parece adecuado establecer ningún tipo de combinación matemática. Por ejemplo, cuando los indicadores están integrados en sistemas y objetivos diferentes, o si se realizan análisis utilizando índices distintos (presupuesto por alumno - ratio de asistencia a las clases).

    3.3.3. CONDICIONES FORMALES

    Tienen que ver con el modo en que se redactan y concretan los indicadores de modo que puedan ser utilizados de la manera más operativa posible. Algunas de estas condiciones apuntadas por Lázaro (1992) serían:

  • Cada indicador tendrá un referente determinado, claro y definido, esto es, cada indicador ha de estar en conexión con un fenómeno específico a estudiar, en coherencia con una determinada variable y factor de un objeto.

  • En relación con el punto anterior, cada indicador ha de solicitar información de una sola manifestación.

  • Tendrá definida la situación a observar determinada en un contexto preciso, incluyendo un espacio y un tiempo determinado.

  • La formulación ha de ser breve y concisa, de forma que se exprese con claridad y sin ambigüedades.

  • El enunciado del texto tenderá a ser directo y descriptivo.

  • Si existe una cadena de indicadores, se han de señalar y sistematizar en niveles de cuasalidad y/o de dependencia.

  • Un indicador podrá desglosarse en ítems, es decir, concretar la petición en forma de ítem o cuestión. Este formato puede constituirse por sí mismo en el instrumento de recogida de la información.

  • 3.3.4. PROCEDIMIentos para el análisis de indicadores

    Las tres dimensiones consideradas para formular indicadores, relativas al constructo, la medida y los aspectos formales, pueden traducirse en un instrumento que permita valorar la presencia o ausencia de los elementos que definen esas dimensiones. De ese modo, resulta posible conocer si los indicadores construidos para evaluar un programa o algún aspecto del mismo responden a los rasgos definitorios de un indicador. El “Cuestionario-Guía sobre requisitos de los indicadores” desarrollado por Lázaro (1991) es un buen ejemplo de este tipo de instrumentos para valorar la formulación de indicadores.

    Cuestionario-Guía sobre requisitos de los indicadores

    (Provisional, A. Lázaro, 1991)

    REQUISITOS de CONSTRUCTO SI NO

    1.- El indicador recoge y hace referencia a alguna propiedad del objeto. * *

    (Significatividad)

    2.- La propiedad referida es de tipo esencial. * *

    (Relevancia)

    3.- Los datos recogidos en el indicador están en congruencia con los fines y objeti-

    vos de la evaluación pretendida. * *

    (Teleologicidad)

    4.- Los datos recogidos por el indicador tienden a ser permanentes. * *

    (Caducidad)

    5.- Con los datos recogidos por el indicador se pueden realizar influencias y predicciones. * *

    (Utilidad)

    6.- El indicador ofrece datos integrables en un sistema de indicadores. * *

    (Coherencia)

    REQUISITOS de MEDIDA SI NO

    7.- Los datos que reclama el indicador son observables. * *

    (Observación)

    8.- Los datos que reclama el indicador pueden ser observados por diferentes evalua-

    dores simultáneamente o en situaciones distintas. * *

    (Replicación)

    9.- Los medios que se utilizan para recoger los datos que reclama el indicador son adecuados * *

    (Aplicabilidad)

    10.- Las fuentes que facilitan la información solicitada por el indicador son accesibles. * *

    (Accesibilidad)

    1 1.- Los indicadores poseen una forma de anotar y valorar la información recogida. * *

    (Codificación)

    12.- Los indicadores tienen un peso específico dentro de un sistema de indicadores. * *

    (Ponderación)

    13.- Los datos obtenidos por los indicadores pueden interpretarse numéricamente. * *

    (Expresión cuantitativa)

    14.- Los datos obtenidos por los indicadores pueden relacionarse numéricamente con

    los de otros indicadores. * *

    (Obtención de índices)

    REQUISITOS FORMALES SI NO

    15.- Cada indicador solicita información de una sola cosa. * *

    (Universidad)

    16.- La inforrración solicitada se puede recoger en una situación definida. * *

    (Manifestación de precisión)

    17.- El indicador está expresado con claridad semántica sin ambigüedad. * *

    (Brevedad expresiva)

    18.- La información reclamada se recoge en un mismo tipo de manifestación. * *

    (Concreción)

    19.- El enunciado será directo y descriptivo. * *

    (Claridad)

    20.- El indicador se relaciona causalmente con otros. * *

    (Dependencia)

    21.- Se puede desglosar y especificar en items. * *

    (Formalización)

    4. ALGUNAS PROPUESTAS DE INDICADORES DE EVALUACIÓN

    A continuación vamos a presentar tres propuestas de indicadores que difieren, además de en el contenido de las dimensiones a evaluar, en la forma de presentación de tales indicadores. En la primera, realizada por Noriega y Muñoz (1996: 28-31) se recogen dimensiones, estándares e indicadores -formulados estos de un modo declarativo- para la evaluación de los centros docentes. De su propuesta de indicadores sólo hemos seleccionado la dimensión «Función» dado que su contenido es el que es la más similitudes guarda con el proceso de evaluación de programas.

    DIMENSIÓN ESTÁNDARES INDICADORES

    FUNCIÓN 1.-El proyecto ha 1.1.- Se han formulado correctamente los objetivos.

    sido cuidadosamen- 1.2.- Se han tenido en cuenta las políticas o directrices emanadas

    te planeado. de la superioridad.

    1.3.- Se han sopesado las ligaduras o restricciones del proyecto (costos,

    etc.).

    1.4.- Se han analizado las estrategias de actuación.

    1.5.- Se ha elegido la estrategia más eficiente.

    1.6.- Se ha aludido a la formación/preparaci6n/reciclaje de los

    elementos humanos intervinientes.

    1.7.- Se han realizado estudios/sondeos sobre la demanda del proyecto.

    1.8.- Se han elaborado guías o instrucciones para el desarrollo del programa.

    1.9.- Se han diseñado canales/medios de información.

    1.10.- (Si el programa lo requiere), se han desarrollado mecanismos que aseguren una certificación objetiva y eficaz de los participantes.

    2.- La programa- 2.1.- Las actividades definidas son coherentes con los objetivos.

    ción es 2.2.- La red de actividades, en su caso, es correcta.

    correcta 2.3.- Se ha efectuado la previsión de los medios rna-

    teriales.

    2.4.- Se ha efectuado la previsión económica pertinente (presupuestos, etc.).

    2.5.- Se ha efectuado la previsión de personal adecuada.

    2.6.- Se ha cuidado de la provisión de los medios materiales, económicos y personales.

    2,7.- Se ha procedido a la sistematización y movili-

    zación/integración de los medios de acuerdo con el

    desarrollo del programa (análisis de procedimiento).

    2.8.- Se han adjudicado las responsabilidades a cada

    uno de los participantes en el programa con atención

    a la coordinación de actuaciones (fonnación de equi-

    pos de trabajo).

    2.9.- Se han diseñado/seleccionado documentos/so-

    porte ad boc.

    3. La operación se 3.1. Se han diseñado estrategias metodológicas (nor-

    desarrolla satis- mas de operación).

    factoriamente 3.2.- La actuación de los elementos del programa es

    correcta y adecuada a los objetivos previstos.

    3.3.- El desarrollo de las actividades se adecua a la

    temporalización prevista en la red.

    4.- El control de 4.1. - Se establecen criterios y métodos/medios de

    calidad del evaluación.

    programa 4.2.- Se diseñan estándares de cantidad, calidad y

    adecuado a sus oportunidad.

    características 4.3.- Se fijan procedimientos e instrumentos de eva-

    luación.

    4.4.- El control afecta a todos los elementos del pro-

    grama.

    4.5.- Se chequean todos los ítems o, al menos, según

    un muestreo suficiente.

    4.6.- El agente del control es el adecuado para garan-

    tizar su objetividad.

    4.7.- Los muestreos se toman a intervalos temporales

    signdicativos.

    4.8.- Los resultados del control se reflejan en informes, gráficos, etc.

    DIMENSION ESTANDARES INDICADORES

    4.9. Los resultados del control se someten a análisis de acuerdo con los objetivos previstos y las actividades realizadas.

    4.10.-Se mantiene un registro de contabilidad sistematizado.

    5.- La acción colec- 5.1.- Se efectúan "inspecciones en la fuente" para una

    tiva del control corrección "automática" de las desviaciones (evaluación

    es eficiente. continua).

    5.2.-Los resultados del análisis del control tienen valor

    diagnóstico determinante para la acción correctiva.

    5.3.- La acción colectiva se aplica a todos los elementos del proyecto

    donde se detectan desviaciones signfficativas:

    - En el planeamiento

    - En la programación

    - En la operación

    - En el control

    - En la acción correctivo

    - En la retroalimentación.

    5.4.- La acción correctivo se aplica, en su caso, a los

    elementos personales de la organización

    6.- El out-put 6.1. - El producto (out-put) cumple las nomias de calidad establecidas.

    o producto. 6.2.- El costo-estándar del producto es safisfactodo.

    6.3.- La calidad del producto es la esperada.

    6.4.- El análisis de satisfacción es positivo.

    7.- Se establece feed- 7. 1.- Los resultados de la evaluación se recogen en una Memoria.

    back o retro- 7.2.- Las conclusiones de la Memoria se recogen en

    alimentación el planeamiento-programación del ciclo siguiente.

    del sistema

    (cuando proceda).

    Una segunda propuesta de indicadores es la que plantea Pérez Juste (1995: 163-167) para la evaluación interna de programas educativos. En este caso los indicadores se presentan en forma interrogativa.

    I. MOMENTO INICIAL: EVALUACIÓN DEL PROGRAMA EN SI MISMO

    1. CALIDAD INTRÍNSECA DEL PROGRAMA

    1. 1. CONTENIDO DEL PROGRAMA:

    1. ¿Se han explicitado las bases científicas y socio-psicológicas del programa?.

    2. El tratamiento dado a los acontecimientos, temas o teorías, ¿es adecuado/distorsionado/desequilibrado?

    3. ¿Están actualizados o desfasados los contenidos?

  • Los contenidos incluidos ¿se consideran relevantes desde perspectivas científicas, sociales, psicológicas

  • y pedagógicas (valor formativo)?

    1.2. CALIDAD TÉCNICA DEL PROGRAMA:

    5. ¿Se incluyen en el programa objetivos, actividades, medios -entre ellos, la metodología- y sistema de evaluación?

    6. La formulación de los elementos anteriores ¿es adecuada para orientar tanto la enseñanza como el aprendizaje?

    7. ¿Se puede considerar que los objetivos son congruentes con los planteamientos científico-curriculares, con las demandas sociales y con las características evolutivas de los destinatarios?

    8. ¿Se da coherencia interna entre los diversos elementos del programa y de ellos en relación con los objetivos?

    9. ¿Se da adecuación del programa a las características diferenciales -motivación, intereses, capacidad- del alumnado?

    1.3. EVALUABILIDAD:

    10. La información contenida en el programa de cara a su posterior evaluación, ¿se considera suficiente,

    relevante y adecuada?

    11. ¿Se dispone de información clara y precisa sobre aspectos metodológicos y de contenido del programa?

    2. ADECUACIÓN AL CONTEXTO

    12. ¿Se da un funcionamiento democrático, participativo e implicativo del centro, así como corresponsabilidad en las tareas?

    13. Los profesores responsables del programa, ¿funcionan en auténtico equipo?

    14. ¿Se da cooperación con las familias cuando es necesaria para el desarrollo del programa?

    15. ¿Se dan reuniones con profesores de cursos anteriores de cara a la planificación del nuevo programa?

    16. ¿Existen datos (registros, informes, actas ... ) en el centro sobre las necesidades y carencias de los alumnos?

    17. ¿Se cuenta con sistemas de detección de necesidades y carencias del alumnado, tales como pruebas de carácter diagnóstico, entrevistas ... ?

  • ¿Se ha previsto un sistema de ajuste inicial a las carencias y dificultades detectadas, tales

  • como clases de recuperación, sistemas de monitores...?

    3. ADECUACIÓN AL PUNTO DE PARTIDA

    19. ¿Responde el Programa a demandas de los interesados?

    20. ¿Están previstos los espacios, momentos en el horario, recursos y personal, necesarios para su desarrollo?

    21. ¿Existen en el centro los medios necesarios para un correcto desarrollo de] Programa?

    22. ¿Se encuentran capacitados los responsables para el desarrollo del programa?

    23. ¿Está prevista la temporalización del programa?

    24. ¿Se realizan reuniones del equipo de profesores responsables del programa'?

    25. ¿Se da entre el equipo de profesores, y en el centro en general, un trabajo de tipo cooperativo?

    26. ¿Ha sido aprobado el programa por el equipo?

    27. ¿Apoyan el programa el claustro de profesores, los padres y demás personal implicado/afectado?

    II. SEGUNDO MOMENTO: PROCESO APLICACIÓN DEL PROGRAMA

    1. PUESTA EN MARCHA DEL PROGRAMA

    28. La metodología utilizada, ¿resulta adecuada para el desarrollo de los objetivos del programa?

    29. ¿Muestran los alumnos interés/motivación hacia las actividades del programa?

    30. ¿Se aprecia corrección en la secuencia de las actividades programadas?.

    31. ¿Se detectan desfases significativos en la ternporalización prevista?

    32. ¿Se respeta la planificación en lo referente a espacios, tiempos, apoyos y recursos?

    33. Los niveles parciales de logro ¿se consideran alejados de, o acomodados a, los propuestos?

    34. ¿Se da rigidez/flexibilidad en la aplicación del programa?

    2. MARCO DE APLICACIÓN DEL PROGRAMA

    35. ¿Se aprecian conflictos y tensiones entre el personal del centro que puedan repercutir en el desarrollo del programa?

    36. Las relaciones con el alumnado ¿se puede calificar de cordiales o de problemáticas?

    37. ¿Se detecta algún conflicto entre los objetivos y/o planteamientos del programa con los del proyecto educativo o con los de otros profesores del equipo o del centro?

    38. ¿Se da concordancia entre la organización y disciplina del aula en que se desarrolla el programa y el sistema organizativo y disciplinar del centro?

  • ¿Se da un clima de confianza en el éxito por parte de alumnos y profesores?

  • III. TERCER MOMENTO: EVALUACIÓN FINAL DEL PROGRAMA

    1. MEDIDA Y LOGROS

    40. ¿Se han tornado precauciones para asegurar la calidad técnica de las pruebas con que se apreciarán los niveles de logro del progrania7

    41. ¿Se planificaron las pruebas, y demás instrumentos elaborados para la recogida de datos, en el momento de diseñar el programa, a fin de asegurar la máxima coherencia con los objetivos?

    42. ¿Se recurre a técnicas variadas de recogida de datos, acordes con la diversidad de objetivos?

    43. ¿Se especificaron los criterios de calificación y de los niveles de logro del programa?

    2. VALORACIÓN

    44. ¿Se especificaron, de modo claro y preciso, los criterios y las referencias para valorar los resultados?

    45. ¿Se aplican los criterios y las referencias de conformidad con las previsiones y con las exigencias técnicas?

    46. ¿Se dispone de información, rica y matizada, sobre los momentos inicial y procesual del programa, como base para valorar los resultados?

    3. CONTINUIDAD

    47. El estilo imperante entre los responsables del programa ¿es participativo y colaborativo, o directivo y autoritario?

    48. ¿Existe un proceso institucionalizado de evaluación, de forma que los resultados se plasmen en nuevos procesos programadores?

    49. ¿Se asignan tareas concretas a los diferentes responsables de los cambios a introducir?

    La tercera propuesta fue realizada por la Consejería de Educación y Ciencia de la Junta de Andalucía dentro del Plan Andaluz de Evaluación de Centros Docentes (1998). En esa propuesta las dimensiones del proceso de evaluación se concretan en indicadores (sic) y éstos a su vez en descriptores, que pueden ser tanto cuantitativos (v.g. correspondería a índices en la terminología al uso en la literatura) o cualitativos (v.g. los verdaderos descriptores según la literatura). Veamos, a continuación, un ejemplo de descriptores que tratan de evaluar la adecuación del Proyecto Curricular de Centro.

    DESCRIPTORES

  • En su caso, en la elaboración del PCC se ha tenido en cuenta el análisis de los resultados de la

  • evaluación del centro reflejado en los cursos anteriores.

    0 1 2 3 4 5

  • El PCC es fruto de la discusión, puesta en común y consenso entre los componentes del Claustro.

  • 0 1 2 3 4 5

  • Los objetivos generales del PCC están en consonancia con las Finalidades Educativas del centro.

  • 0 1 2 3 4 5

    2.4. En el PCC los objetivos de etapa y área/materia se ordenan por ciclos/cursos manteniendo una continuidad progresiva.

    0 1 2 3 4 5

    2.5. La organización y secuenciación de los contenidos se realizan en relación directa con los objetivos propuestos. En Educación Secundaria se incluyen además criterios para determinar la oferta de materias optativas y para organizar los itinerarios de los Bachilleratos.

    0 1 2 3 4 5

    2.6. El PCC recoge contenidos conceptuales, procedimentales y actitudinales.

    0 1 2 3 4 5

    2.7. El PCC contiene orientaciones para incorporar los contenidos de carácter transversal del curriculum.

    0 1 2 3 4 5

    2.8. El PCC incluye decisiones de carácter general sobre metodologías didácticas. Además, incluye criterios para: agrupamientos, actividades y recursos (Primaria) / elaborar programaciones de Departamentos y Módulos (Secundaria).

    0 1 2 3 4 5

    2.9. Se explicitan estrategias didácticas concretas y adecuadas para atender a la diversidad del alumnado.

    0 1 2 3 4 5

    2.10. Están definidos y compartidos los criterios de evaluación para todas y cada una de las áreas y ciclos. ( en E. Primaria) / áreas, materias, ciclos y cursos (en E. Secundaria).

    0 1 2 3 4 5

    2.11. Se organizan los distintos elementos del proceso de evaluación del aprendizaje (fases, recursos, procedimientos, instrumentos, registros, etc.).

    0 1 2 3 4 5

    2.12. Se han establecido los procedimientos e instrumentos para la evaluación de los aprendizajes de las distintas áreas.

    0 1 2 3 4 5

    2.13. Se han establecido los criterios de promoción del alumnado.

    0 1 2 3 4 5

    2.14. Existe un Plan de Formación que recoge, claramente definidas, las necesidades de formación del profesorado (de carácter didáctico, pedagógico ... ) en función de las necesidades del centro:

    0 1 2 3 4 5

    2.15. El PCC promueve la investigación educativa y la realización de actividades de perfeccionamiento que repercutan en la práctica docente.

    0 1 2 3 4 5

    2.16. El Plan de Orientación y Acción Tutorial incluye objetivos, actividades y tiempos adecuados a realizar con el alumnado, el profesorado, padres y madres.

    0 1 2 3 4 5

    2.17. Se ha establecido un Plan de Evaluación del PCC coherente con los objetivos planteados y concretado criterios, estrategias e instrumentos para su aplicación.

    0 1 2 3 4 5

    2.18. Están establecidos criterios, estrategias e instrumentos para la evaluación de la práctica docente.

    0 1 2 3 4 5

    2.19. El PCC responde a una propuesta original y adecuada al centro que contiene todos los apartados exigidos por la normativa, está ordenado, sistematizado, justifica las propuestas, ha sido aprobado por el claustro, etc.

    0 1 2 3 4 5

    2.20. El PCC es un instrumento pedagógico-didáctico útil y práctico que se concreta y aplica en otros niveles de planificación (ciclos y programaciones de aula).

    0 1 2 3 4 5

    5. UTILIDAD DE LOS INDICADORES EN LA EVALUACIÓN DE PROGRAMAS

    Existe una curiosa paradoja en relación con el uso de indicadores en la evaluación de programas educativos. Mientra se concede cada vez más importancia a la formulación de indicadores como elemento clave en la evaluación educativa éstos no terminan por incorporarse a los procesos reales de evaluación. El desconocimiento sobre el modo en que deben utilizarse los indicadores en un proceso de evaluación y la propia formulación a posteriori (una vez desarrollado el programa) y no a priori (al tiempo que se redactan los objetivos del programa) de los indicadores puede explicar esta paradoja (De Miguel1, 1995: 181).

    Una primera consecuencia que podría extraerse de lo dicho es que la eficacia e idoneidad de los indicadores dentro de un proceso de evaluación está en buena medida condicionada por el modo -ver apartado 3 de este tema- y por el momento en que se formulen. Así, para que los indicadores sean útiles deberían definirse a priori, en función de cada uno de los objetivos que pretenden lograrse con el programa.

    Hecha estas salvedades, hagamos referencia a algunas de las recomendaciones que pueden realizarse para utilizar de un modo más apropiado los indicadores en un proceso de evaluación:

  • A partir de un marco teórico, desarrollar un sistema de indicadores basado en medidas múltiples con el fin de que posibilite obtener y contrastar la información sobre un aspecto por diversas vías.

  • Avanzar en la construcción de indicadores com uestos y de índices que nos aporten información más compleja y decisiva para las decisiones.

  • Complementar la información que aportan los indicadores con la que nos pueden facilitar otras fuentes (especialmente los expertos).

  • Construir y utilizar indicadores sobre todas la fases del proceso de la evaluación Y no sólo sobre los resultados o productos.

  • Evitar los juicios de valor durante la fase de elaboración de los indicadores a fin de no condicionar las etapas siguientes del proceso.

  • Buscar el mayor grado de consenso entre la audiencia respecto a los indicadores a utilizar y dar la máxima publicidad a la información obtenida. (De Miguel, 1995: 182-183).

  • 5.1. VENTAJAS QUE OFRECE EL USO DE INDICADORES

    La recomendación del uso de indicadores en la evaluación educativa en general y en la evaluación de programas en particular está justificada porque ofrece al evaluador las siguientes ventajas:

  • Aportan información válida, verificable y relativamente neutral.

  • Posibilitan establecer comparaciones en función de diversos criterios.

  • Permiten que los juicios de valor -valoraciones- se apoyen sobre datos bastante objetivos.

  • Facilitan el consenso entre la audiencia implicada.

  • Otorgan credibilidad a la toma de decisiones.

  • Añaden transparencia a todo el proceso evaluador (De Miguel, 1995: 181-182).

  • 5.2. PRINCIPALES DIFICULTADES EN EL USO DE INDICADORES

    Cuando utiliza indicadores el evaluador se enfrenta igualmente a una serie de dificultades e inconvenientes, entre los que cabría citar los siguientes:

  • Con frecuencia se elaboran a partir de modelos teóricos muy sencillos por lo que el indicador ofrece una información muy simple y limitada.

  • En algunos casos, muchos indicadores se utilizan por razones políticas y con un determinado sentido,introduciendo sesgos en la evaluación.

  • Habitualmente existen problemas en la recogida y análisis de los datos, especialmente los referidos al nivel de agregación, lo que cuestiona la objetividad y viabilidad del indicador.

  • La falta de homogeneidad en los criterios -dado que en cada contexto se entienden de forma diferente- impide obtener medidas comparables.

  • Problemas derivados de sus costos y ámbito de aplicación frecuentemente determinan que muchos indicadores se utilicen de forma distorsionada.

  • Finalmente cabe señalar que pueden orientar toda la ejecución de los programas con el fin de alcanzar los indicadores y alterar, también, la toma de decisiones (De Miguel, 1995:182).

  • BIBLIOGRAFÍA

    1. Eisner, E. W. (1993). Why standards may not improve schools. Educational Leadership, 50(5), 22-23.

    2. Lázaro, A. (1992). La formalización de indicadores de evaluación. Bordón, 43(4), 477-494.

    3. Miguel de, M. (1991). Indicadores de calidad en la docencia universitaria. I Congreso Internacional sobre calidad de la enseñanza universitaria (p. XXV-LI). Cádiz: ICE de la Universidad.

    4. Miguel de, M. (1995). Indicadores de rendimiento y evaluación de programas. en R. Pérez Juste, J. L. García Llamas, & C. Martínez Mediano (Coords.), Evaluación de programas y centros educativos (pp. 169-192). Madrid: UNED.

    5. Newman, D. L., & Brown, R. D. (1992). Violations of evaluation standards. Evaluation Review, 16(3), 219-234.

    6. Noriega, J., & Muñoz, A. (1996). Indicadores de evaluación del centro docente. Madrid: Editorial Escuela Española.

    7. Pérez Juste, R. (1995). Evaluación interna de programas educativos. en R. Pérez Juste, J. L. García Llamas, & C. Martínez Mediano (Coords.), Evaluación de programas y centros educativos (pp. 131-168). Madrid: UNED.

    8. Salzer, M. S. e. al. (1997). Validiting quality indicators. Evaluation Review, 21(3), 292-309.

    9. Simmons, W., & Resnick, L. Assessment as the catalyst of school reform. Educational Leadership, 50(5), 11-15.

    Otras referencias:

    Consejería de Educación y Ciencia (1998). Evaluación de centros docentes. Plan de evaluación de centros docentes en la Comunidad Autónoma Andaluza. Junta de Andalucía.

    Dewey, J. (1934). Art as experience. New York: Minton Balch and Company.

    Guba, E.G. y Lincoln, Y. (1981). Effective evaluation. California: Sage Publications.

    AUTOEVALUACIÓN

    2 Tema 4. Est