Diseños de investigación. Agostina Costantino

Чтение книги онлайн.

Читать онлайн книгу Diseños de investigación - Agostina Costantino страница 4

Автор:
Серия:
Издательство:
Diseños de investigación - Agostina Costantino

Скачать книгу

      La variable que manipula el experimentador se llama variable independiente (X) y la que cambia variable de resultado o dependiente (Y). Para establecer las diferencias que provoca la manipulación de la variable independiente sobre la dependiente hace falta un testigo o un sistema de control. Este puede ser el sistema mismo cuando no se encuentra sometido a la operación de X, procedimiento que se puede emplear cuando es estable en el tiempo. En caso contrario hay que emplear un sistema separado, de modo que por la acción de la variable experimental aparece una diferencia entre el sistema experimental y el de control. Y en caso de que haya variaciones individuales importantes, como ocurre en las ciencias sociales, hay que elegir conjuntos de individuos en lugar de casos individuales, esto quiere decir que hay que elegir un grupo experimental y otro de control, pero hay que elegirlos de tal modo que la única diferencia entre ellos sea que uno recibe los estímulos del experimentador y el otro no (Bunge, 1979a: 830-831).

      Si los resultados deben reflejar la operación de X y no la elección de las unidades que los componen (sesgo de selección), los grupos experimental y de control tienen que ser homogéneos o relativamente similares en todos sus aspectos. Para lograr este propósito se pueden emparejar (aparear) las unidades garantizando su similitud en todas las variables observadas.

      Sin embargo, esta no es la única técnica para lograr la homogeneidad de los grupos, la estadística pone a disposición de los investigadores los procedimientos de control de distribuciones y aleatorización. El primero consiste en igualar los grupos de tratamiento y de control en algunas medidas del colectivo, como promedios, medianas, varianzas, etc., olvidando las diferencias individuales, en tanto que el segundo consiste en formar ambos colectivos por aleatorización. Este procedimiento se basa en el principio estadístico de que si se toman dos muestras aleatorias independientes de una misma población estas no presentarán diferencias significativas, es decir, que los grupos serán equivalentes u homogéneos. Esto también se puede aplicar en situaciones experimentales en las que el investigador forma aleatoriamente, por ejemplo, dos grupos y a uno de ellos le asigna el tratamiento al azar y al otro no. Si se buscara analizar el efecto de una beca sobre el rendimiento escolar, se pueden seleccionar aleatoriamente dos grupos de estudiantes (que serán estadísticamente equivalentes) y decidir al azar a cuál de ellos aplicar el tratamiento (el otorgamiento de la beca).

      En los experimentos se satisfacen las tres condiciones de Mill, replanteadas por Selltiz et al. En efecto, el investigador manipula una variable C (causa) para obtener un resultado E (efecto), lo que garantiza la precedencia temporal,8 es decir, se observa E una vez que aconteció C. Además, con la información que proporciona el experimento, aplicación de C y cambio en E, se puede establecer la relación entre C y E, esto es, que se puede establecer el patrón de covariación que liga la causa con el efecto. Y, por último, los experimentos son diseñados de manera tal que se controlen los posibles efectos que puedan tener otras variables sobre la relación causal.

      Ahora bien, la idea de diseño que elaboran Campbell y Stanley pone el acento en la generación de la información necesaria para estudiar relaciones causales entre variables. En efecto, sostienen que el leitmotiv de su libro se encuentra en una cita de McCall (1923) quien sostenía que “Hay excelentes libros y tratados que exponen el manejo estadístico de datos experimentales, pero muy pocos de cómo obtener datos adecuados y correctos a los cuales poder aplicar el procedimiento estadístico” (Campbell y Stanley, 1966: 10).

      La preocupación principal en la perspectiva experimental de estos autores y sus seguidores se concentra en la posibilidad de establecer una estructura lógica que genere la información adecuada9 para analizar hipótesis causales. Esta estructura informa si se recabará la información antes y después de que haya operado la variable experimental, de modo que el antes sirva como grupo de control; o se empleará un grupo de control y otro experimental; o bien se combinarán estas dos opciones de modo de dar pauta a cuatro tipos de observaciones (en el grupo experimental y de control antes de la operación de la variable experimental y en ambos grupos después de aplicar el “tratamiento”); o será necesario establecer series que se despliegan en el tiempo, etcétera.

      En el libro de referencia se estudian dieciséis diseños, algunos experimentales y el resto cuasi experimentales, cuyas potencialidades y limitaciones se juzgan por comparación con los modelos experimentales. Los autores plantean que “son muchas las situaciones en que el investigador puede introducir algo similar al diseño experimental en su programación de procedimientos para la recopilación de datos (p. ej., el cuándo y el quién de la medición), aunque carezca de control total acerca de la programación de estímulos experimentales (el cuándo y el quién de la exposición y la capacidad de aleatorizarla) que permite realizar un auténtico experimento” (Campbell y Stanley, 1966: 70). Shadish et al. (2002: 104) definen “cuasi experimento” como experimentos “que carecen de asignación aleatoria de las unidades a las condiciones pero que tienen propósitos y atributos estructurales similares a los experimentos aleatorizados”.

      En esta corriente metodológica se da por sentado que el propósito de la investigación consiste en estudiar relaciones causales10 y que para ello se debe emplear como modelo el experimento, concebido en los términos ya planteados. La novedad es que si bien la forma de generar la información está delineada a partir del modelo experimental, introducen la idea de producir las observaciones en situaciones en que el experimentador no tiene control absoluto sobre la situación, y señalan que los diseños serán tanto más complejos según se tenga menos control (Campbell y Stanley, 1966: 9), es decir, dan por sentado la precedencia temporal y la covariación, y el problema central radica en la posibilidad de controlar otras variables que pudiesen intervenir sobre la relación entre C y E.

      El hecho de que en la bibliografía dedicada a este tema haya referencias escasas al papel de la teoría en el proceso de investigación no debe llevar a concluir que no se le otorgue alguno, de hecho, se reconoce el rol que juegan la formulación de teorías, hipótesis y modelos así como su contrastación con criterios externos en el avance de la ciencia, y sitúan el papel de la experimentación en la segunda fase, aquella del “desbrozamiento, el rechazo y la revisión” (Campbell y Stanley, 1966: 72). Aún más, destacan su función en la resolución de discusiones teóricas (Campbell y Stanley, 1966: 11). No debe olvidarse que el experimento tiene una intención cognitiva para lo cual el control es el elemento central que permite validar las hipótesis causales. Tanto la pretensión de adquirir más y mejores conocimientos como el control descansan en supuestos teóricos.

      De las consideraciones anteriores se puede derivar que para esta perspectiva el diseño de investigación se concibe como el modelo lógico —entendido como los argumentos conceptuales que llevan a ligar C con E— que debe emplearse para someter a prueba las hipótesis causales, donde el tema de control de variables11 tiene un rol central.

      Los diseños correlacionales y la causalidad

      Los diseños correlacionales se pueden entender como un conjunto de estructuras lógico-matemáticas que se usan para organizar las variables contenidas en la matriz de varianzas y covarianzas (Cortés y Rubalcava, 1993: 227-260), pero que no necesariamente están orientadas a estudiar relaciones causales. La estadística proporciona una gran variedad de estrategias de análisis de datos entre las que destacan el papel de los modelos de regresión, de trayectorias, jerárquicos, de panel, factoriales, de conglomerado, de correspondencia y estructurales lineales, entre otros.

      Todas estas técnicas se nutren de resultados obtenidos por la observación guiada por el interés académico de generar conocimiento científico, entendiendo por observación la “percepción intencionada e ilustrada: intencionada o deliberada porque se hace con un objetivo determinado; ilustrada porque va guiada de algún modo por un cuerpo de conocimiento” (Bunge, 1979a: 727).

      A pesar de que estas técnicas no están construidas específicamente

Скачать книгу