Reforma rural integral: ¿Oportunidad que se desvanece?. Amanda Alvarado Cortés

Чтение книги онлайн.

Читать онлайн книгу Reforma rural integral: ¿Oportunidad que se desvanece? - Amanda Alvarado Cortés страница 6

Серия:
Издательство:
Reforma rural integral: ¿Oportunidad que se desvanece? - Amanda Alvarado Cortés

Скачать книгу

Pero, más allá del objetivo inicial del ejercicio evaluativo, puede afirmarse que el fundamento de este tipo de evaluación es la medición matemática de datos considerados verídicos y cuantificables, aplicables en cualquier lugar, independientemente del contexto. En esta metodología, prima el criterio de eficiencia productiva, es decir, la relación de eficiencia entre recursos y resultados (Subirats et al., 2008).

      De esta manera, siguiendo con la propuesta de Scriven (2011a), en la primera generación de evaluación aparecieron dos tipos de rol: la población objetivo y el evaluador. Cabe aclarar que el evaluador debe cumplir con el perfil de ser técnico y tener amplio conocimiento en instrumentos de medición, para ser usados en cualquier contexto. Para garantizar la objetividad de la evaluación, el experto debe aplicar el método científico y, dentro de este marco, emplear los instrumentos técnicos adecuados para la recolección, medición y comprobación objetiva de la información, a partir de la cual es posible emitir un diagnóstico igualmente objetivo.

      De acuerdo con el enfoque positivista, tales elementos aportan legitimidad a los estudios sociales, ya que este enfoque científico permite a las ciencias sociales extrapolar los métodos utilizados en las “ciencias duras”, los cuales garantizarían precisión en la medición de los fenómenos sociales y, en últimas, el descubrimiento de “la verdad” (Guba y Lincoln, 1989; Muñoz, 2007). Asimismo, los datos cuantitativos procesados a través de la estadística y la matemática proveen soporte al diagnóstico causal-lineal de la evaluación.

      La segunda generación surgió de reconocer las graves falencias de la primera, especialmente, porque se tenía a los estudiantes como los objetos de la evaluación y no a las estructuras educativas ni los elementos que las componen (Guba y Lincoln, 1989, p. 27). A partir de esto, se planteó la necesidad de evaluar los planes de estudio en práctica, para determinar si, en efecto, funcionaban para los fines que se pensaba lograr cuando fueron implementados. En otras palabras, la segunda generación de la evaluación introdujo un elemento adicional al proceso: la descripción de un contexto más amplio que el solo objeto focalizado, es decir, esta vez se incluyó un marco referencial. Así pues, en esta generación de la evaluación, se identificaron tres tipos de rol (Scriven 2011a): el evaluador (técnico experto), la organización (objeto de evaluación) y la población objetivo (objeto de evaluación).

      El rol del evaluador responde a un doble papel: realizar una caracterización o descripción del marco referencial, para aplicar luego los instrumentos válidos para la medición (Muñoz, 2007). Dentro de este marco referencial, se cuenta la organización de la política o programa, los patrones, estrategias y materiales que los hacen posibles; también el personal encargado. De esta manera, los componentes de la evaluación pasan por 1) la descripción de los objetivos, donde el experto contextualiza la evaluación; 2) la construcción de instrumentos de medición, adecuados según el contexto; y 3) la recolección de la información, la medición y su comprobación.

      Con los elementos anteriores, el técnico evaluador puede emitir una evaluación formativa, en la que, gracias a la estadística y la matemática, es posible comparar una situación de fortalezas y debilidades en relación con el logro de los objetivos de la política o programa. En otras palabras, el propósito de la segunda generación de evaluación es medir y valorar, objetivamente, el cumplimiento de los objetivos, identificando fortalezas y debilidades de acuerdo con el mismo criterio principal de la primera generación: la eficiencia productiva.

      A pesar de que la segunda generación amplió el panorama de la evaluación, al incluir el contexto interno de la política o programa, es decir, los objetivos, estrategias, materiales y organización que se plantean, no logró garantizar la identificación de la pertinencia. Para superar esta limitación, apareció una tercera generación de evaluación, basada en las críticas que había hecho Michael Scriven en 1967, quien señaló que el proceso evaluativo debe problematizar el valor extrínseco de los objetivos (Guba y Lincoln, 1989).

      Para problematizar el valor de tales objetivos es inevitable que el evaluador también tenga un papel como juez, toda vez que, siendo el descriptor y técnico experto, la persona más objetiva posible. De esta manera, los componentes de la evaluación conservan las características de las generaciones anteriores: describir objetivos, construir instrumentos, recolectar información, medir y comprobar y, a partir de esto, evaluar internamente la política. No obstante, a este proceso se suma que la evaluación debe comparar, además, los objetivos con estándares externos a la política. A partir de ello, se debe, primero, emitir juicios de valor internos y externos (contextuales) y, segundo, determinar si la política y sus objetivos son pertinentes o no.

      Debido a que el contexto en que surgió esta generación de evaluación fue la Guerra Fría y la competencia entre Estados Unidos y la Unión Soviética, apareció un nuevo actor en la evaluación: el gobierno. Este nuevo actor se refiere a lo que Scriven (2011a) denomina “cliente”, puesto que el Gobierno de Estados Unidos necesitaba evaluar el sistema de educación estadounidense y superar las deficiencias que habían permitido a los soviéticos ir “un paso adelante” en la carrera espacial (Guba y Lincoln, 1989).

      En este escenario, la tercera generación de evaluación determinó la existencia de tres roles: el cliente (gobierno), el evaluador (juez, descriptor, técnico experto) y el objeto de la evaluación (la población objetivo y la política misma). Cabe agregar que, en el marco de la carrera por dar respuesta a las supuestas deficiencias en la educación, apareció un nuevo criterio en el proceso evaluativo, pues, además de la objetividad y la eficiencia, resultó necesario tener en cuenta también la oportunidad de la información. Este criterio permitió al evaluador y su cliente disponer de la manera más rápida posible de la información y valoración necesaria para tomar decisiones frente a los ajustes que la política en cuestión requiriera.

      De esta manera, la tercera generación de la evaluación planteó que los objetivos de una política en sí mismos pueden ser problematizados por el evaluador y deben serlo. Por tanto, son susceptibles de ser valorados en relación con estándares externos a la política. Así, esta generación permitió ampliar, nuevamente, el panorama de la evaluación, para incluir elementos externos a la política y emitir juicios de valor intrínsecos y extrínsecos a ella. En ese sentido, se reconoció, por primera vez, que el experto evaluador emite juicios de valor, aunque se insista en la pretensión objetivista, incluso sin tener claridad con respecto a cómo establecer los estándares objetivos de juicio en el contexto de sociedades con multiplicidad de valores. Adicionalmente, se reconoció que este tipo de evaluaciones está orientado a la toma de decisiones, por lo que las evaluaciones que brinden información oportuna resultan más valiosas.

      Al analizar las tres primeras generaciones, Guba y Lincoln (1989) proponen una cuarta generación que intenta superar los límites de las metodologías positivistas y meramente cuantitativas, a la hora de hacer investigación en ciencias sociales. Así pues, la evaluación constructivista o de cuarta generación se basa en los supuestos básicos del paradigma constructivista, es decir, una ontología del relativismo, donde el conocimiento se concibe como una construcción social y cobra sentido a través del proceso de comprender del ser humano. En otras palabras, no podríamos hablar de la existencia de una verdad “objetiva”, porque la verdad es relativa a la experiencia y la comprensión humanas.

      Ello implica que, en términos epistemológicos, la evaluación constructivista puede hacer afirmaciones sobre “realidad” y “verdad”, pero estas “depend solely on the meaning sets (information) and degree of sophistication available to the individuals and audiences engaged in forming those assertions”1 (Guba y Lincoln, 2001, p. 1). En ese sentido, las aseveraciones hechas en la evaluación no pueden ser consideradas absolutamente verdaderas, sino relativas, resultado de un proceso dialéctico y hermenéutico de descubrimiento y asimilación.

      Así pues, la evaluación constructivista tiene dos momentos: el momento dialéctico y el de asimilación. El primero tiene lugar cuando el evaluador descubre al evaluado en su contexto. En este momento,

Скачать книгу