Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                
0% encontró este documento útil (0 votos)
54 vistas28 páginas

Tema 4

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1/ 28

Tema 4: Diseño de la investigación. Problemas educativos y diseños.

Tipos de diseños: no experimentales, cuasi – experimentales y


experimentales

© R. Pérez Juste

INDICE PRESENTACIÓN 1. INTRODUCCIÓN 2. EL DISEÑO DE


INVESTIGACIÓN
2.1. Concepto
2.2. Objetivos
2.3. Tipos
3. CRITERIOS PARA SELECCIONAR EL DISEÑO
3.1. Responder a las preguntas de la investigación
3.2. Controlar la varianza
3.3. Grado de generalización
4. PROBLEMAS EDUCATIVOS Y DISEÑOS 5. EL DISEÑO EXPERIMENTAL
RESUMEN

1
PRESENTACIÓN

Toda investigación arranca de un problema, esto es, de una realidad para la que no
tenemos una respuesta convincente o satisfactoria. Ante el mismo, el investigador se
plantea la forma de resolverlo, y hacerlo de un modo correcto y eficaz, tarea en la que
encuentra en el diseño la solución adecuada.

Por ello, el objeto central del presente tema es el análisis de la vinculación del problema
a investigar con el diseño de investigación como medio para afrontar su resolución, para
dar respuesta a las preguntas en que aquel se concrete.

A los efectos pertinentes, se aconseja que la formulación del problema se lleve a cabo en
forma de preguntas, cuanto más claras y precisas, mejor. Por tanto, la elección del diseño
deberá atender a las exigencias derivadas de la naturaleza de las preguntas; determinadas
preguntas se limitan a constatar si se da relación entre variables; pero otras, como
apreciaremos más adelante, nos ponen ante metas más ambiciosas, tales como establecer
si la relación es causal, esto es: si la variable independiente es la causa de los efectos
apreciados en la variable dependiente. Obviamente, las exigencias en este caso son
mayores y se concretan en un término clave en investigación cuantitativa: el de control,
control de las variables extrañas que, de no ser controladas, pueden conducir a invalidar
el diseño y, en consecuencia, a no poder responder a las preguntas del problema.

Siguiendo los planteamientos de Kerlinger, debemos analizar no sólo la naturaleza de las


preguntas en que se concreta el problema, sino esa idea del control, que, además de
referirse a las posibles variables extrañas, tiene en la varianza un componente
fundamental cuando de investigación cuantitativa se trata.

La varianza, medida de dispersión o variabilidad, es la expresión de la incidencia de una


variable –o de la falta de la misma- sobre otra. Cuando tal influjo se da, apreciaremos
dispersión en mayor o menor grado; cuando no se produce, la dispersión es nula o
despreciable en términos estadísticos. La asignación de tal dispersión a un origen
concreto, en nuestro caso a la variable independiente, será objeto del diseño y de nuestra
atención.

Como toda investigación no es sino un proceder riguroso, metódico y sistemático


destinado a dar respuesta a las preguntas en que se concreta el problema de investigación,
la calidad de un diseño vendrá relacionada, entre otros aspectos, por su adecuación a la
naturaleza de tales preguntas.

Dado que la investigación según el enfoque positivista tiene como meta el establecimiento
de relaciones causales entre las variables del diseño –antecedentes o independientes y
consecuentes o dependientes- someteremos a análisis y valoración los tres grandes tipos
de diseños existentes: pre, cuasi y experimentales.

1. INTRODUCCIÓN

2
Los saberes que adquirimos pueden ser clasificados de diversas formas; una de ellas se
refiere al tipo de conocimientos de que se trate. Así, la mayoría de los conocimientos a
adquirir tienen que ver con el saber disponible, más o menos elaborado, organizado y
estructurado.

Pero otros saberes, y este es el caso de la presente asignatura, tienen como objeto no tanto
lo ya conocido como el procedimiento para aumentar, corregir o descubrir nuevos saberes.

El ser humano, a lo largo de su historia sobre la Tierra ha ido ampliando su acervo de


conocimientos y lo ha hecho aplicando diversos procedimientos, desde su observación de
la realidad circundante o la acumulación de experiencias fruto de su vivir diario a aquellas
otras perseguidas y hasta provocadas como consecuencia de su natural curiosidad y
tendencia a indagar sobre lo desconocido.

La investigación es una de esas formas de indagar, de abrir camino, de buscar respuestas


a fenómenos para los que el ser humano no tenía una respuesta convincente. Cuando eso
ocurría, las respuestas han ido por la vía de la magia, de la autoridad, la superstición…

Pero el ser humano tiene, entre sus cualidades naturales, la tendencia a que las respuestas
a sus inquietudes sean convincentes, satisfagan su racionalidad. En estos casos, necesita
procedimientos que, al menos de entrada, sean capaces de satisfacer a su inteligencia y
razón.

A tales procedimientos se les ha dado el nombre de investigación; investiga el juez,


investiga la policía, investiga el técnico, investiga el médico…, y cada uno de ellos lo
hace sobre sus problemas específicos, pero siempre buscando una respuesta convincente
capaz de descartar otras alternativas. Encontrar tal respuesta y descartar otras posibles
requiere procedimientos rigurosos.

El contenido de esta materia se centra, precisamente, en el aprendizaje de procedimientos


rigurosos para investigar. Ahora bien, de entre tales procedimientos, el objeto de nuestra
atención se concreta en aquellos que denominamos empíricos, esto es, que acuden a datos
e información disponible o elaborada al efecto para encontrar estas respuestas.

Entre tales procedimientos se encuentran algunos especialmente exigentes porque


pretenden alcanzar respuestas que satisfagan las mayores cotas de la curiosidad humana:
nos referimos a los procedimientos experimentales, difíciles de aplicar, como veremos,
en el campo de la educación.

La investigación científica es la búsqueda intencionada de conocimiento o de soluciones


a problemas de carácter científico. La investigación se caracteriza por ser un proceso
sistemático, planificado, organizado y con pretensiones de resultados objetivos.

Es sistemático, porque responde a un plan, cuya manifestación más rigurosa es el


denominado método científico; en los planteamientos de enfoque cuantitativo, ese método
suele conocerse como hipotético–deductivo–experimental. Hipotético, porque trata de
contrastar en condiciones exigentes, rigurosas, la conjetura –hipótesis- que, a priori,
podría ser la solución del problema.

3
Es planificado y organizado porque, lejos de toda improvisación u ocurrencia, todo el
hacer al servicio del contraste de la hipótesis responde a un plan ordenado, un plan
exigente y convincente, aunque todo ello no asegure el éxito tanto por limitaciones
humanas como por las del propio plan, al margen, claro está, de aquellas que se deben a
los errores o a las limitaciones del propio investigador.

Y pretende unos resultados objetivos, esto es, unas conclusiones que deriven de los datos
rigurosamente obtenidos y no de la interpretación más o menos subjetiva, a veces forzada,
para que se ajusten a ideas preconcebidas.

Pues bien, un proceso así caracterizado encuentra en el diseño de la investigación la


herramienta fundamental, precisamente por responder a tales exigencias. Pero no
debemos dejar de lado que el diseño no es algo infalible sino una forma rigurosa de
proceder en manos del investigador, que nunca debería intentar retorcer los
procedimientos para que los resultados concuerden con sus planteamientos iniciales. He
ahí el papel de la deontología profesional, clave aquí como en todo hacer humano.

2. EL DISEÑO DE INVESTIGACIÓN

Entre las diferentes acepciones del término “diseño” según el Diccionario de la RAE se
encuentran las de “Traza o delineación de un edificio o de una figura. Proyecto, plan.
Concepción original de un objeto u obra… Por su parte, en el de María Moliner leemos.
“Apunte. Boceto. Croquis. Esbozo. Esquema”.

De alguna manera, todas esas acepciones enlazan con el concepto técnico de diseño
aplicado a la investigación empírica en general y a la experimental en particular.

2.1. Concepto

No obstante, tal vez sea la más adecuada la de “proyecto o plan” pudiendo servir de
referencia su aplicación a la arquitectura, donde toma la forma de “plano”.

En efecto: al igual que el arquitecto antes de ponerse a la compleja tarea de levantar un


edificio debe analizar con detalle la situación y tomar en consideración cuantas variables
tengan relación con su futura obra, desde las características de lugar en que se ubicará o
su peso y volumen hasta su forma, tamaño, estructura… a fin de hacer un edificio sólido,
funcional y hasta bello, el investigador no puede ponerse sin más a la tarea de investigar
sin pararse a pensar en lo que quiere hacer, si cuenta con los medios y recursos para ello
y si están dispuestos de forma adecuada para llegar a buen término su trabajo: resolver el
problema.

Pues bien: en líneas generales esa es, de modo genérico, la concepción del diseño. No
obstante, y para precisar su naturaleza, funciones y objetivos, será bueno acudir a las
definiciones dadas por expertos en la materia.

4
Así, contamos con aportaciones que, sin dar una definición formal, acuden a la
enumeración de las tareas que integran el diseño. Tal es el caso de Finney1 para quien en
el diseño deben considerarse, de una parte, aquellos tratamientos que van a ser
comparados y las unidades a las que se aplicarán los tratamientos, y de otra las reglas para
asignar los tratamientos a las unidades seleccionadas y las medidas a tomar en cada
unidad.

Según McGuigan 2 el diseño toma en consideración el planteamiento del problema, la


formulación de la hipótesis, la manipulación de la variable independiente y su medida, el
procedimiento a seguir, la previsión de los análisis de datos recogidos y de los resultados
esperados.

Entre nosotros, Arnau3, también desde una perspectiva descriptiva, considera que, bajo
ese concepto, se incluyen “los procedimientos requeridos en una investigación
experimental”, incluyendo entre ellos “desde la formulación de la hipótesis a la
obtención de las conclusiones”.

Otros planteamientos se orientan a su finalidad. Tal es el caso de dos importantes figuras


en este campo, con su breve pero fundamental librito sobre el tema. Se trata de Cambell
y Stanley 4 , quienes entienden que lo fundamental del diseño es su capacidad para
controlar las distintas fuentes de invalidez interna y externa.

En línea con el enfoque de la finalidad del diseño, Domenech i Massons5 lo entiende como
“las técnicas de realización de experiencias que permiten estudiar la influencia de uno o
varios factores o variables”.

A nuestro juicio, el planteamiento más correcto, y la definición más sencilla a la vez que
completa, es la debida a Kerlinger6. Estas son sus palabras:

“Diseño es el plan, estructura y estrategia de una investigación cuyo objetivo es dar respuesta
a ciertas preguntas y controlar la varianza”.

En apenas veinte palabras el autor hace una definición formal y, además, la completa
incluyendo sus objetivos, como tendremos ocasión de comentar. Veamos ahora cómo
define cada uno de sus términos:

“El plan es un esquema global o programa que consiste en bosquejar lo que hará el
investigador, desde la redacción de la hipótesis y sus consecuencias operacionales, hasta el

1
FINNEY, D.J. (1960) Experimental Design and its Statistical basics. Chicago: The University of Chicado
Press.
2
McGUIGAN, F.J. (1976) Psicología experimental. México: Trillas.
3
ARNAU GRASS, J. (1981) Diseños experimentales en Psicología y Educación. Vol. 3. México:
Trillas.
4
CAMPBELL, D. y STANLEY, J. (1978) Diseños experimentales y cuasi-experimentales en la
investigación social. Buenos Aires: Amorrortu.
5
DOMÉNECH I MASSONS, J.M (1980) Bioestadística. Métodos estadísticos para investigadores.
Barcelona: Herder.
6
KERLINGER, F.N. (1981) Investigación del comportamiento. Técnicas y metodología. 2ª edición,
México: Interamericana, cap. 17

5
análisis final de los datos. La estructura es más específica: es el bosquejo, el esquema, el
paradigma de operación de las variables. Al trazar diagramas donde se describen las
variables, su relación y yuxtaposición, construimos esquemas estructurales que nos permiten
alcanzar las finalidades operacionales de la investigación. El significado de estrategia…
comprende los métodos mediante los cuales se reunirán y analizarán los datos. En otras
palabras, indica cómo se conseguirán los objetivos de la investigación y cómo se abordarán
los problemas que se hallen en ella”.

Como hemos podido apreciar, Kerlinger utiliza la mayoría de los términos recogidos del
diccionario y referidos al diseño en general.

Veamos estos planteamientos en un posible ejemplo de investigación, ligado a un


problema actual en nuestras universidades, como es el relacionado con las competencias
como objeto de formación de los estudiantes:

El problema surge en el investigador al plantearse dudas sobre qué procedimientos


de actuación serán más eficaces para alcanzar las competencias asignadas a una
determinada materia del currículo.

Después de analizada la literatura sobre el tema, de definir el concepto de


competencia, de analizar las diversas metodologías utilizadas… se plantea una
pregunta:

• ¿Se darán diferencias en eficacia en el logro de las competencias en función de


las dos metodologías más utilizadas, A o B?

Su análisis sobre el “estado de la cuestión” le lleva a considerar que, tal vez,


variables como los estudios de que se trate –Grado académico- la asignatura, el tipo
de enseñanza –presencial o a distancia y, dentro de esta, la tradicional o la que se
realiza “on line”, la edad de los alumnos, el curso (primeros o últimos cursos del
grado), el lugar donde reside (ciudad o pequeño núcleo rural), pueden influir en los
resultados, lo que le lleva a plantear su pregunta de forma más concreta:

• ¿Se darán diferencias en eficacia en el logro de las competencias en función de


las dos metodologías más utilizadas, A o B, cuando se aplican en los últimos
cursos del Grado de Economía, en la asignatura Macroeconomía, en estudios a
distancia llevados a cabo “on line”?

Siguiendo con sus lecturas, reflexiones y experiencia profesional se puede plantear


que las metodologías, por su diferente naturaleza, deben dar lugar a diferencias en
eficacia, atreviéndose a formular la siguiente hipótesis:

• La aplicación de las metodologías A o B en los últimos cursos del grado de


Economía, en la asignatura Macroeconomía avanzada, da lugar a diferencias en
la eficacia del aprendizaje por parte de alumnos a distancia que siguen el curso
“on line”.

Incluso, como consecuencia de sus lecturas y experiencia docente, basándose en


sus conocimientos sobre el aprendizaje adulto, puede arriesgarse a conjeturar que
la metodología A debe ser más eficaz:

6
• La aplicación de la metodología A en los últimos cursos del grado de Economía,
en la asignatura Macroeconomía avanzada, da lugar mejores resultados en el
aprendizaje por parte de alumnos a distancia que siguen el curso “on line”.

La primera de las dos hipótesis se conoce como bilateral ya que se cumpliría –


quedaría validada- tanto si la metodología A da mejores resultados que la B como
en el caso contrario. La segunda, en la que el investigador arriesga más, se
denomina unilateral, y solo queda validada si, en efecto, los mejores resultados se
logran con la A y no con la B.

En una concepción amplia de diseño la hipótesis forma ya parte del mismo: el investigador
ha llegado a una conjetura más o menos audaz, según vimos decir a M. Bunge, pero ahora
llega el momento de ser muy rigurosos en someterla a contraste. Y aquí es donde aparece
el diseño como plan.

La cuestión es ahora decidir qué hacer para dar la respuesta que demanda el problema y
para contrastar la conjetura, de forma que quede o no validada, aunque, como tendremos
ocasión de constatar, sea de forma probabilística, esto es: no con seguridad sino con un
riesgo más o menos elevado de error, admitido a priori por el investigador.

En ese plan parece ser necesario:

• Definir con toda claridad las dos metodologías, A y B. Es más, con el fin de que
las diferencias puedan surgir, convendrá que ambas sean claramente diferentes7.
• Decidir sobre los alumnos a los que se aplicarán las metodologías. Nuestra
formulación del problema deja fuera los de todas las carreras excepto Economía
y, dentro de esta, todos menos los de Macroeconomía avanzada.
• Del mismo modo, deberá decidir si selecciona a todos o a una muestra, en cuyo
caso deberá cuidar su tamaño y el procedimiento imparcial de muestreo.
• Habrá de tomar decisiones sobre la asignación de los alumnos a los grupos y de
la metodología a los grupos.
• Se deberá decidir cómo medirá la eficacia, cuándo recogerá los datos y qué
análisis hará de ellos, así como el tratamiento estadístico de los mismos
• Y será preciso avanzar los resultados que le permitirían aceptar la hipótesis como
validada o, por el contrario, considerar que esto no ha sido posible.

Junto al plan debe plantearse la estructura:

• Parece necesario contar con dos grupos de estudiantes de la asignatura, uno


para cada una de las metodologías.
• Entre los posibles esquemas para abordar la cuestión, podemos analizar los
siguientes8:

Primero:

7
Más adelante analizaremos este punto, dentro de denominado principio MAX- MIN- CON de Kerlinger,
formando parte del MAX.
8
V.i.: variable independiente; V.d.: variable dependiente

7
V. independiente V. dependiente V. independiente V. dependiente
Metodología A Media de A Metodología B Media de B
Resultado: Media A – Media de B

Segundo:

Variable independiente Variable dependiente


Metodología Logro de competencias
A Media de A
B Media de B
Resultado: Media de A - Media de B

Tercero:

Nivel previo V. independiente. V. dependiente


en competencias Metodología Logro de competencias
Media A1 A Media de A2
Media B1 B Media de B2 Resultado: (A2 - A1) - (B2 - B1)

Estos esquemas, en los que se relacionan la V.i. (metodología) con la V.d. (logro
de las competencias), nos indican diferentes formas de actuar. Veamos:

En el primer caso, contamos con un solo grupo de estudiantes, al que se aplican


sucesivamente ambas metodologías, comprobando al final si de dan diferencias
entre los efectos de una y otra.

En el segundo nos valemos de dos grupos; cada uno de ellos recibe una
metodología y, al finalizar, constatamos los resultados, pudiendo comprobar si
se dan o no diferencias entre las medias de un grupo y otro, o lo que es lo mismo,
entre los resultados con una y con otra metodología.

Por último, en el tercer esquema, preocupados por las posibles diferentes


iniciales en competencias en los grupos sobre los que se aplicarán las
metodologías, medimos el nivel previo, aplicamos como en el caso anterior las
dos metodologías y medimos los resultados. Este esquema nos permitirá
comprobar el efecto de ambas tomando en consideración el nivel de partida:
podría darse el caso de que resultados más bajos en uno de los grupos
supusieran mayor ganancia que la debida al otro, teniendo en cuenta ese nivel
previo.

No entramos por el momento a valorar las alternativas, algo que haremos más
adelante; simplemente se trata de dejar constancia de diferentes estructuras de
acción.

Y, ahora, la estrategia.

Si optamos por la primera estructura, con un solo grupo, deberemos decidir si es


indiferente el orden en que se presenten las dos metodologías, si cabe esperar

8
que la aplicada en segundo lugar se verá alternada por la primera, cuál es el
tiempo que debe mediar entre la aplicación de una y otra metodologías, si
convendría tener datos previos sobre la situación del grupo en las competencias
que se desea conseguir (línea de base)…

Si optamos por acudir a dos grupos es preciso decidir qué grupo recibirá qué
metodologías, por qué procedimiento se asignarán las metodologías, qué
actuaciones deberán llevarse a cabo que puedan garantizar no ya la igualdad de
ambos antes de aplicar la V.i. en sus dos niveles o modalidades pero sí al menos
la equivalencia, de forma que no haya entre ellos diferencias iniciales que
pudieran explicar las diferencias finales. Se trata de evitar una variable extraña
que pueda anular nuestro planteamiento.

Así, en los modelos 2 y 3 anteriores se acude a dos procedimientos diferentes;


mientras en el tercero se ha decidido medir la situación de los grupos antes de
aplicar la metodología correspondiente (V.I.) lo que implica contrastar al final las
ganancias conseguidas por cada una9, en el segundo no. Nada se dice sobre
cómo se ha procedido, pero las opciones van desde la formación de los grupos
tal como se han seleccionado (incorrecta) a su constitución por procedimientos
aleatorios (la mejor, pero habitualmente difícil de lograr) pasando por la
constitución de bloques homogéneos o, en el extremo, la formación de los grupos
mediante emparejamientos, es decir: asignar a un grupo un sujeto y al otro un
nuevo sujeto que pueda considerarse “parejo” o equivalente al primero.

Deberemos buscar procedimientos que eviten la influencia de variable extrañas


durante el tiempo de dure la investigación.

2.2. Objetivos

Siguiendo lo indicado por Kerlinger, los grandes objetivos del diseño son:

Responder a las preguntas del problema de investigación


Controlar la varianza

Veamos una y otra cuestión, su significado y las actuaciones a su servicio.

2.2.1. Responder a las preguntas del problema de investigación

El diseño no es algo rígido, sino un plan al servicio de la investigación. Preguntas como


las siguientes exigen diseños diferentes:

1. ¿Hay relación entre los métodos y las competencias?


2. ¿Se dan diferencias en los resultados en el logro de competencias en función del
método utilizado?
3. ¿Aprenden los alumnos antes las competencias con una metodología que con otra?
4. ¿Aprenden los alumnos más competencias con una metodología que con otra?

9
Kerlinger no es partidario de este procedimiento sino sustituirlo por el análisis de covarianza, que
presentaremos más adelante, y que compara al final las medias finales ajustadas a las diferencias iniciales.

9
5. ¿Permanece durante más tiempo el aprendizaje de competencias con una
metodología que con otra?
6. El aprendizaje de competencias alcanzado con una metodología, ¿es de mayor
aplicación que con otra?
7. ¿Aprenden más (antes, durante más tiempo…) los alumnos adultos que los más
jóvenes?
8. ¿Es más eficaz una concreta metodología con alumnas que con alumnos?
9. ¿Es más eficaz una metodología en el aprendizaje “on line” que en la enseñanza
presencial?
10. ¿Aprenden más (antes, durante más tiempo...) las competencias en unos grados
que en otros (ciencias frente a humanidades…)?
11. ¿Aprenden más (antes, durante más tiempo..) en una tipología de materias y
asignaturas que en otras?
Etc.

Pues bien, la primera pregunta, entendiendo el término “relación” como correlación en


términos estadísticos, solo pide contar con las medidas de los resultados en competencias,
diferenciados según el método y proceder al cálculo estadístico mediante una correlación
biserial puntual.

Sin embargo, en los casos 2 a 6 el interés del investigador parece ir más allá de la mera
constatación de tal relación, estando interesado en atribuir al método el origen de las
posibles diferencias. Decimos el origen aunque, en realidad, querríamos decir la causa;
ahora bien: para probar si los métodos son esa causa entramos en el terreno de la
investigación experimental y necesitaremos de diseños que puedan controlar las hipótesis
alternativas a la del investigador, esto es, las variables extrañas.

Si analizamos las preguntas 7 a 11, nos encontramos ante una dificultad, en efecto: por
un lado tenemos la misma preocupación del investigador en relación con el efecto que
puedan producir las metodologías sobre el aprendizaje de las competencias. Pero, por
otro, aparece una preocupación añadida: si tal efecto difiere en función de la edad, el sexo,
el tipo de enseñanza, la naturaleza de los grados académicos, las materias o las
asignaturas.

Una solución consistiría en plantear diseños paralelos: uno para comprobar la eficacia de
las metodologías con alumnos adultos y otro para alumnos jóvenes; uno para alumnas y
otro para alumnos; uno para la enseñanza presencial y otro para la enseñanza “on line”…,
solución poco satisfactoria y con evidentes dificultades a la hora de comparar.

Por ello, el investigador puede plantearse preguntas más complejas y, en consecuencia,


demandar diseños que también lo fueran. Por ejemplo:

1. ¿Se dan diferencias en los resultados en el logro de competencias en función del


método utilizado y de la tipología de las materias?
2. ¿Aprenden los alumnos antes las competencias con una metodología que con otra
en grados científicos y de humanidades?
3. ¿Aprenden los alumnos más competencias con una metodología que con otra
según la materia?

1
0
4. ¿Permanece durante más tiempo el aprendizaje de competencias con una
metodología que con otra en los primeros cursos o en los últimos?
5. El aprendizaje de competencias alcanzado con una metodología, ¿es de mayor
aplicación que con otra según la tipología de las materias?
6. ¿Aprenden más (antes, durante más tiempo…) los alumnos adultos que los más
jóvenes con una metodología que con otra?
7. ¿Es más eficaz una concreta metodología con alumnas que con alumnos?
8. ¿Es más eficaz una metodología en el aprendizaje “on line” que en la enseñanza
presencial?
9. ¿Se aprende más (antes, durante más tiempo...) las competencias en unos grados
que en otros (ciencias frente a humanidades…) según las metodologías?
10. ¿Aprenden más (antes, durante más tiempo..) en una tipología de materias y
asignaturas que en otras según la metodología utilizada?
11. Etc.

En todos estos casos, el interés del investigador no se limita a la acción de una variable
independiente, la metodología, con al menos dos niveles (A y B) sino que lo hace teniendo
en cuenta, a la vez, el influjo de otra, sea el sexo, el curso, el tipo de enseñanza, el grado,
la materia… En este tipo de situaciones, el esquema de acción que hemos analizado en el
apartado anterior será, obviamente, más complejo y contemplará simultáneamente esas
dos variables independientes. Por ejemplo (cuadro 4.1):

Grado universitario Física Filosofía TOTAL


Metodología
A: presencial
B: “on line”

TOTAL

Cuadro 4.1. Esquema de un diseño complejo, con dos variables


independientes

La ventaja de este planteamiento es que, simultáneamente podemos probar el efecto de la


variable “metodología” y de la variable “grado” sobre el logro de las competencias y
apreciar si una metodología da, en ambos casos, mejores resultados que la otra.

Y algo más, y de mayor aportación científica y práctica: podría darse el caso de que una
metodología, la A, diera mejores resultados con Filosofía, mientras la B lo hiciera con
Física. Este caso, aportación específica de este tipo de diseños, denominados factoriales,
se denomina interacción, y es especialmente relevante en el ámbito de las ciencias
humanas.

2.2.2. Controlar la varianza

Hasta ahora hemos podido apreciar cómo diferentes enunciados de las preguntas que se
hace el investigador en torno a su problema, requieren esquemas de acción diferentes,
esto es, diseños distintos.

1
1
A continuación analizaremos con algún detenimiento la segunda gran cuestión, el
segundo objetivo del diseño: controlar la varianza

Debemos recordar que entendemos por varianza una medida de dispersión de las
puntuaciones en torno a la medida del grupo. Si en un determinado grupo todos sus
componentes obtuvieran la misma puntuación, por ejemplo, la misma talla, el mismo
peso, la misma calificación en ortografía…, su desviación típica –s- seria nula -0- y su
varianza –s2- también. Sin embargo, con tan solo un caso en que la puntuación fuera
diferente de las demás, por pequeña que fuera la diferencia, sí habría dispersión, el valor
de s y el de s2 serían diferentes de 0. El problema en el diseño es el de poder asignar esa
dispersión o varianza a una fuente concreta, a una variable concreta.

Parece evidente en nuestro diseño que lo deseable es poder asignar la dispersión a las
metodologías, pero la situación no es tan sencilla como parece. ¿No podría darse el caso
de influencias alternativas o simultáneas a las metodologías?. Por ejemplo: el influjo del
profesor que aplica la metodología, la asignatura de que se trate, el grado académico, el
curso de dicho grado, la edad o el sexo de los alumnos…

La cuestión se nos plantea en términos de control: deberíamos poder asignar la variación


o dispersión a la metodología y solo a ella. No por el hecho de que nos interese comprobar
si una metodología es más eficaz que otra podremos asignar la variación que se produzca
(varianza) a tal variable; si hay otras variables que puedan influir, y parece razonable que
las enunciadas puedan hacerlo, deberemos evitar que se conviertan en explicaciones
rivales de la nuestra, en conjeturas o hipótesis rivales o alternativas, y eso solo podremos
conseguirlo si el diseño cumple con este segundo objetivo, el control de la varianza.

Este aspecto, crucial en toda investigación experimental, se denomina técnicamente


validez interna del diseño, consistente en poder afirmar que los efectos medidos en la
variable dependiente se deben a, y solo a, la variable independiente.

Como podemos comprender este objetivo presenta dos momentos claramente diferentes:
Poder afirmar, antes de comenzar la investigación, que los dos grupos que hemos
formado para recibir cada uno de los niveles de la v.i. metodología, A y B, son no ya
iguales pero sí equivalentes, que tanto da asignar a uno de ellos la metodología A como
la B, y viceversa.
Que una vez iniciada la investigación las condiciones y circunstancias en que esta
se desarrolla son las mismas para cada uno de los grupos que forman parte de la
investigación.

Si lo primero no siempre es fácil, como tendremos ocasión de apreciar, lo segundo resulta


francamente difícil en el campo de la Educación. Las dificultades para controlar todos los
posibles factores influyentes con seres humanos y fuera del laboratorio –la vida habitual
de los sujetos, al margen del tiempo y el espacio de la investigación- lo hacen
prácticamente imposible, aunque el investigador deba hacer todo lo que esté en sus manos
para acercarse al ideal.

1
2
Si se lograra tal control estaríamos ante un caso como el siguiente: la dispersión o
variabilidad, medida en términos de varianza, sería igual en términos estadísticos10 antes
de comenzar la investigación. Por tanto, si pasado el tiempo en que los grupos reciben
diferentes metodologías, se constatara una variación entre ambos, y se diera ese control,
la dispersión no podría tener otro origen que la v.i.: una metodología produciría cambios
mayores o diferentes a los originados por la otra.

Más adelante tendremos ocasión de conocer los procedimientos existentes para abordar
este control en sus dos manifestaciones. Sin embargo, sí es el momento de concretar las
principales cuestiones en torno al diseño acudiendo a un principio fundamental,
formulado magistralmente por Kerlinger: el principio MAX – MIN – CON.

Como señalábamos, con un buen diseño se pretende dar respuestas a las preguntas en que
se concreta el problema de investigación; junto a ello, y, en gran medida, como un medio
para lograrlo, el segundo objetivo es controlar la varianza.

En toda medida de una variable, por ejemplo, de la variable dependiente de un diseño, se


produce una determinada varianza, esto es, la dispersión de las puntuaciones en tal
variable. La dispersión, que puede ser mayor o menor, puede tener su origen en los
cambios introducidos por el investigador al manipular –al decidir sus niveles- la variable
independiente, o bien en otros factores alejados de los intereses del investigador. La
primera varianza se denomina sistemática porque tiene un origen concreto, y
experimental, porque la produce la variable independiente o experimental.

La segunda, suele ser una varianza aleatoria pues sus efectos vienen a compensarse al
afectar por igual a los grupos en que se concreta el diseño de investigación. Su origen se
encuentra en las diferencias individuales existentes entre los sujetos dentro de los grupos
del diseño y en las ligadas a los errores de medida. Se la denomina varianza de error. El
diseño nos dará una u otra respuesta a las preguntas en función de la relación entre una y
otra. Parece lógico pensar que si la primera es claramente superior a la segunda, cabe
esperar que se deba a la manipulación de la variable independiente... siempre que se hayan
controlado las posibles hipótesis rivales de la formulada por el investigador.

En definitiva, pues, un buen diseño deberá responder al principio que Kerlinger denominó
Max-Min-Con:

Max representa la meta de maximizar, esto es, de hacer tan grande como sea necesario, la
varianza debida a la variable independiente; min, por el contrario, la de minimizar o hacer
tan pequeña como se pueda aquella varianza explicable por efecto de las diferencias
individuales o del azar; y con no es sino la gran exigencia: el control de toda hipótesis
rival o alternativa de la formulada por el investigador, algo que se denomina técnicamente
validez interna.

Max y min son importantes para conseguir que los resultados de una investigación
puedan llegar a ser estadísticamente significativos, esto es, para que el investigador pueda

10
Queremos decir que ese ser igual no debe entenderse como “exactamente igual”, sino que las diferencias
entre uno y otro grupo no son estadísticamente significativas, esto es: sus diferencias no van más allá de lo
esperado por puro azar.

1
3
decidir, con un elevado nivel de confianza, que no se deben al azar sino al efecto de la
variable independiente, lo que representa la posibilidad de rechazar H0, esto es, la
hipótesis nula o de nulidad y, en consecuencia, poder aceptar la suya, H1, admitiendo un
riesgo cuya probabilidad denominamos nivel de significación, representado por , y cuyo
valor es complementario del nivel de confianza.11

Pero aunque Max y Min logren ese objetivo, si con el diseño no se consigue el Con, no
habremos hecho nada. En efecto: podremos afirmar que las diferencias son
estadísticamente significativas, pero no sabremos a qué se deben, ya que, junto a nuestra
variable independiente, caben otras explicaciones, otras hipótesis rivales o alternativas:
las correspondientes a las variables extrañas, esto es, no controladas.

2.3. Tipos

Siguiendo la citada obra de Campbell y Stanley presentaremos tres tipos de diseños:


pre-experimentales, cuasi-experimentales y experimentales.

2.3.1. Diseños pre-experimentales

Al presentarlos utilizaremos el símbolo X para la variable independiente e Y para la


dependiente. Pues bien, los tres siguientes diseños son considerados pre-experimentales
ya que carecen de control (Cuadro 4.2):

1) Diseño de caso único, con una sola medición


X Y

2) Diseño pretest – postest de un solo grupo:


Y1 X Y2

3) Diseño de comparación con un grupo no tratado experimentalmente:


X Y1
Y2

Cuadro 4.2. Esquemas de los diseños pre – experimentales

En el diseño 1) no hay justificación que permita asignar los efectos medidos en Y a la v.i.
X; muchas otras variables distintas de X pueden estar ocurriendo a la vez que X y ser la
causa o parte de la causa de los resultados medidos en Y.

El investigador suele plantear sus resultados poniéndolos en relación con la realidad que
él conoce, por su experiencia, por datos de otros estudios, por información acumulada de
otros trabajos… Cualquiera estas comparaciones no está justificada y las conclusiones
derivadas no son defendibles.

11
Si el nivel de confianza fuera del 95%, el de significación es del 5%. O en términos de probabilidad: 0,95
y 0.05 respectivamente.

1
4
En el diseño 2) estamos ante una comparación formal: disponemos de información previa
al inicio del experimento -Y1- aplicamos la v.i. y medimos sus efectos. Aparentemente,
el planteamiento es más exigente; desde luego, permite la comparación antes – después,
pero no evita los riesgos de 1) ya que variables extrañas alternativas o simultáneas pueden
estar actuando a la vez que X. Es decir: la diferencia Y2 - Y1 será la que fuere, pero su
origen o causa no tiene por qué ser X sino otras X diferentes o ambas a la vez en forma y
proporción desconocidas.

Por último, en 3) estamos ante una comparación de nuestro grupo experimental con otro
grupo; el primero ha recibido X y el segundo no, pero ¿disponemos de información que
asegure que ambos grupos eran comparables en todo menos en la recepción o no de X?.
Evidentemente, no. El segundo grupo puede ser muy diferente del primero en interés,
motivación, dedicación, conocimientos previos, dominio inicial de las competencias…
que podrían explicar la diferencia Y2 - Y1 al margen del hecho de haber recibido o no X.

2.3.2. Diseños experimentales

Si en los tres tipos de diseños anteriores el problema reside en la falta de control de la


varianza, en los tres siguientes este hecho desaparece. Veamos (Cuadro 4.3):

4) Diseño de dos grupos, inicialmente igualados por asignación al azar


Azar Y1 X Y2
Azar Y3 Y4

5) Diseño de cuatro grupos de Solomon


Azar Y1 X Y2
Azar Y3 Y4
Azar X Y5
Azar Y6

6) Diseño de grupo de control con solo pretest:


Azar X Y1
Azar Y2
Cuadro 4.3. Esquemas de diseños experimentales

En el diseño 4) estamos ante dos grupos, constituidos ambos por selección y asignación
aleatoria de los sujetos, a uno de los cuales se somete a la influencia de v.i, esto es, de
X, y a otro no. Vale la pena señalar que ese no estar sometido a X no equivale a no recibir
ninguna influencia, esto es: no contrastamos X contra no X, sino X frente a una forma de
influencia no especificada, que suele ser la forma ordinaria de trabajo, en nuestro caso la
forma ordinaria de actuación para alcanzar las competencias.

Conviene, por tanto, esmerarse en definir ese “no X” al igual que se define X, porque las
diferencias, si las hubiere, no serán de X frente a no X sino de X frente a esa modalidad
concreta de no X.

1
5
Teóricamente, este diseño, al partir de una asignación de sujetos y tratamientos al azar,
controla las hipótesis rivales a la del investigador. Más adelante analizaremos esta
importantísima cuestión al hablar de la validez interna.

Conocidas las limitaciones existentes en la medida de las variables, ligadas a su fiabilidad


(errores de medida), y las diferencias que se dan entre muestras, incluso cuando han sido
seleccionadas utilizando procedimientos asépticos e imparciales como el azar (errores
muestrales), cualquier tentación de limitarnos a comparar directamente las dos medias:
Y2 – Y4 no estaría justificado.

Tampoco lo estaría, sin más, la comparación de las ganancias: (Y2 – Y4) - (Y1 – Y3) ya
que a ambas diferencias les podemos aplicar las mismas restricciones de errores de
medida y muestrales. Por otra parte, y como señala Kerlinger12, “las diferencias del grupo
de control y del grupo experimental pueden carecer de importancia cuando de hecho
existe un efecto sustancial” y se apoya en Cronbach y Furby quienes afirman que las
puntuaciones de cambio no se deben utilizar, siendo lo importante si se dan diferencias
entre ambos grupos.

La alternativa en estos casos es la técnica del análisis de covarianza que estudiaremos


más adelante. En ella se contrastan las diferencias finales ajustadas a las diferencias
iniciales. Esto es: se comparan las medias finales ajustadas a las diferencias iniciales
medidas en el pre-test (Y1 y Y3).

El diseño 5 hace una importante aportación a las posibilidades de generalización de los


resultados, algo que estudiaremos más adelante como validez externa.

En efecto: como podemos apreciar, estamos ante una investigación en que se combina el
cuatro (los dos primeros grupos) con el 3, si bien aquí con asignación de sujetos y
tratamientos al azar.

Las principales comparaciones que podemos realizar son más que en el caso anterior:
• Por una parte Y2 frente a Y1: ¿Hay ganancias por la introducción de una v.i.?
• Por otra Y2 frente a Y4: ¿Hay diferencias como efecto de X frente a no X?
• Si tomamos ahora los dos primeros grupos podemos llevar a cabo las
comparaciones propias del diseño 4.
• Además, Y5 frente a Y6: ¿Hay diferencias como consecuencia de la
introducción de una v.i.?
• Y, por último: Y6 frente a Y3: ¿Hay diferencias en el caso de medidas iniciales
en otro grupo con medidas finales en el propio?
• Tomando en conjunto estos dos últimos grupos podemos hacer las
comparaciones del diseño 3, mejoradas por contar con las ventajas derivadas
de la aleatorización.

12
KERLINGER, F.N. (1981) Investigación del comportamiento. Técnicas y metodología. 2ªvedi. México:
Interamericana, p. 239

1
6
Lo más importante de este diseño es que analiza la existencia o no de diferencias en
situaciones diferentes; caso de darse concordancia, se eleva la credibilidad de los
resultados.

Cuando conozcamos los factores que atentan a la validez interna y externa podremos
comprobar que este diseño sale al paso de factores como los denominados historia y
maduración (dos primeros grupos), de la interacción entre pruebas y v.i. (tres primeras
filas) y los efectos que puedan darse durante la investigación (las cuatro filas).

Si desde el punto de vista de la finalidad del diseño este es un buen diseño, los problemas
que arrastra consigo se refieren, por un lado, a la dificultad para llevarlo a cabo y, por
otra, al análisis estadístico.

El primero es obvio: es más difícil articular un diseño con cuatro grupos que con dos. El
segundo reside en que no existe una prueba que permita decidir de una forma global en
torno a las preguntas del investigador y contrastar las hipótesis. Sí podemos, como hemos
señalado en los diseños 3 y 4, estudiar las diferencias entre Y5 e Y6 mediante una prueba
t de Student y entre Y2 e Y4 ajustadas a las diferencias iniciales mediante una covarianza.

Otras propuestas que se plantean son comparar las Y4 e Y5 con el promedio de Y1 e Y3 a


la vez que la magnitud de las diferencias entre Y2 e Y4.

La complejidad y problemática apuntada llevan a Kerlinger a afirmar que “sería mejor


reservarlos para experimentos de gran trascendencia en los cuales, hipótesis ya
demostradas con diseños más sencillos, vuelven a ser verificadas con mayor rigor y
control”13

El diseño 6) difiere del 4) en la carencia de pretest. Esta limitación no lo es tal si tenemos


en cuenta que sujetos y tratamientos son asignados acudiendo al azar, la técnica por
experiencia para lograr, en general, una equiparación de los grupos antes de comenzar la
investigación. Podríamos decir que si el azar es posible, el diseño 6 puede ser preferible
en la medida en que nos ahorra medidas pretest y puede aplicársele un tratamiento
estadístico más sencillo.

Por otra parte, debemos reconocer que no siempre estamos en condiciones de disponer de
pretest y que, a veces, su aplicación tiene inconvenientes14. Es más, si en el diseño 4
necesitaríamos identificar a los sujetos para en el caso de formar grupos por
emparejamiento, en este caso, al utilizar el azar, no es preciso.

Si en el diseño 4, dada la existencia de medidas pretest se aconseja acudir a la covarianza


como técnica estadística específica, en este caso podemos hacerlo con el

1313
Idem., p. 241. Recuerde el lector que no nos parece adecuado utilizar el término verificar; preferimos,
por más preciso y correcto, el de validar.
14
Al estudiar la validez externa podremos comprender lo que se denomina el efecto reactivo del pretest,
que puede alterar los resultados y limitar su generalización.
análisis de la varianza sencillo, para dos grupos (prueba F) si bien no es preciso porque
se dispone de la conocida prueba t de Student, aplicable en este caso.

1
7
Diseño 7: Diseño factorial

La complejidad de los procesos educativos hace que, con mucha frecuencia, la


simplificación que representan diseños tan correctos como el 4, resulte poco concorde
con la misma.

Es fácil argumentar que, en muchos procesos educativos, hay dos o más variables
independientes actuando simultáneamente sobre la v.d. Aunque aquí representaremos el
caso de dos v.i., la realidad es todavía más compleja, pero nos sirve para comprender lo
que este hecho representa para su diseño y su resolución estadística (Cuadro 4.4).

Cuadro 4.4. Esquema de un diseño factorial

Las aportaciones de este diseño son, fundamentalmente, dos:

• Poder someter a contraste simultáneamente dos hipótesis, una en relación con cada
una de las dos v.i., en nuestro caso Metodología y Sistema de motivación.
• Además, y esto es lo fundamental, poder apreciar si se da el efecto denominado
de interacción, esto es, el hecho de que los efectos de una de las v.i. estén
condicionados por la otra v.i. En efecto: puede ocurrir que una de las dos v.i.
siempre dé mejores resultados que la otra, pero también, y esto es la interacción,
que una v.i. dé mejores resultados con uno de los niveles de la otra, alterándose la
situación con el otro nivel. Por ejemplo: que la combinación motivación intrínseca
/ trabajo individual dé mejores resultados, pero que la extrínseca los dé con la
metodología cooperativa.

El tratamiento estadístico de este diseño es el análisis de la varianza (ANAVA, o


ANOVA en inglés), esto es, la prueba F de Fisher.

F sólo indica si alguna de las posibles diferencias entre medias es o no significativa; por
eso, en caso afirmativo, se deben proseguir las pesquisas para ver entre qué par de medias
se dan las diferencias, acudiendo a los denominados contrastes a posteriori mediante
pruebas como las de Tukey (si el valor de n en las celdillas es el mismo) o Sheffé, también
aplicable a este caso pero especialmente adecuado cuando tales valores no lo son.

2.3.3. Diseños cuasiexperimentales

1
8
Podría parecer más correcto haber analizado estos diseños inmediatamente después de los
pre - experimentales; sin embargo, hemos preferido este orden porque la diferencia
esencial entre ellos y los experimentales radica en las limitaciones que pondremos de
manifiesto en cuanto a las posibilidades de control.

Este hecho es una realidad especialmente habitual en el campo de la investigación sobre


seres humanos en los que el experimento se realiza en un contexto de “vida normal”. Por
ejemplo: las investigaciones sobre el aprendizaje de competencias se llevarán a cabo
principalmente en el ámbito académico, pero luego los alumnos, en la calle y en su
domicilio desarrollan esa vida normal, de relaciones con amigos y la familia, de
distracción, de acceso a las tecnologías… Incluso, hasta pueden comunicarse con otros
compañeros que pueden estar realizando el mismo “experimento”, y ello tanto
participando de un mismo nivel de la v.i. como de la otra.

Esta situación es común en nuestro campo del saber y con ella debemos familiarizarnos
con el fin de trabajar con ella sacando el máximo fruto. Para ello conviene conocer cuáles
son las variables que no controla cada diseño, algo que veremos más adelante.

Pasamos a analizar los principales diseños cuasi- experimentales (Cuadro 4.5).

Diseño 8: pretest – postest con grupo de control no equivalente.

Y1 X Y2
Y3 Y4

Cuadro 4.5. Esquemas de un diseño cuasi – experimental: pretest / postet con grupo de control
no equivalente

Como se aprecia aquí, ambos grupos, el experimental y el de control, han recibido un


pretest pero este no asegura la inicial equivalencia antes de aplicar X, que deberá
asignarse por procedimiento aleatorio.

Por lo general, los grupos son naturales, esto es: se encuentran constituidos previamente
al diseño de la investigación, razón por la cual, aunque puedan ser próximos a la
equivalencia, no lo son en la realidad. Esta es la razón fundamental para necesitar del
pretest.

Si esos grupos naturales fueran en verdad cercanos a la equivalencia inicial y, con ello,
más similares las puntuaciones pretest de ambos grupos, mejor resultará este diseño para
probar el efecto de X. Más adelante, al igual que en los demás diseños, analizaremos las
posibles variables que atentan a su validez.

Estadísticamente, el análisis de covarianza es la técnica más adecuada pues, como se ha


señalado, las puntuaciones de ganancia suelen estar desaconsejadas.

Diseño 9: Diseño de cuadrado latino (Cuadro 4.6)

1
9
Este tipo de diseños forma parte de un grupo más amplio denominado de diseños
compensados.

En él la v.i., generalmente denominada tratamiento, tiene tantos niveles como grupos


haya en el diseño, presentándose una vez por fila y columna, de forma que no coincida el
mismo nivel dos veces en la misma fila o en la misma columna.

En cada una de las celdillas se cruzan dos variables independientes, denominadas de


bloqueo, porque su misión es homogenizar los grupos en tales variables (bloques); las
puntuaciones de cada celdilla son las de la variable dependiente, por ejemplo, en nuestro
caso, las obtenidas en competencias, mediante la aplicación de tres metodologías, A, B y
C:

Cuadro 4.6. Esquemas de un diseño cuasi – experimental: cuadrado latino

La ventaja de este diseño radica en el control del efecto que puedan representar las dos
variables utilizadas para homogeneizar los grupos, en nuestro caso la clase social y el
rendimiento previo.

Por el contrario, el riesgo salta a la vista: en cada casilla confluye el tratamiento o variable
independiente con el cruce de ambas variables de homogeneización; a este efecto se le
denomina interacción, un efecto que es muy beneficioso y de utilidad en otro tipo de
diseños ya conocidos, los denominados factoriales, pero que en el diseño que analizamos
resulta indeseable ya que no podríamos diferenciar el efecto debido a la variable
tratamiento (metodología) del existente por la interacción. Si recordamos que la meta de
los diseños experimentales es poder atribuir los resultados medidos en la v.d. a y solo a
la v.i., comprenderemos lo que este hecho representa.

El tratamiento estadístico adecuado a este tipo de diseños es el análisis de varianza. Lo


fundamental es poder descartar el efecto de interacción; si así fuera, lo importante es
probar si los tratamientos, niveles de la v.i. o factores, dan lugar a diferencias en la v.d.
Si fuera así, tendríamos otro problema ya que la prueba F solo indica que al menos una
de las diferencia son significativas, pero nada dice de entre qué pares de medias se dan.

Diseño 10. Series cronológicas

2
0
En este tipo de diseño, el investigador cuenta con una serie de medidas repetidas, previas
a la introducción de la v.i.; después de introducirla, se vuelven a realizar medidas de la
v.d. de forma que se pueda apreciar si X da lugar a cambios.

Su representación esquemática es la siguiente (Cuadro 4.7):

Y1 Y2 Y3 Y4 X Y5 Y6 Y7 Y8

Cuadro 4.7. Esquemas de un diseño cuasi – experimental: diseño de series cronológicas

Algunas observaciones a tener en cuenta:


• Podemos aplicar esta estructura a sujetos individuales o a grupos
Para que alcance un carácter riguroso, debe estar fundamentada la hipótesis de que
los cambios que puedan ocurrir después de X pueden deberse a X. No sería
adecuado partir de datos existentes y tomarlos como Y1 Y2 Y3 Y4
• El número de medidas Y antes y después de X no es fijo. Normalmente, las previas
a Y buscan lo que se denomina línea de base, esto es, una situación estable del
sujeto o del grupo en la realidad medida.
La interpretación de los resultados Y5 Y6 Y7 Y8 depende de los previos a X y de
la forma que tomen después de Y. Podemos apreciarlo en el gráfico que tomamos
de Campbell y Stantley (figura 4.1).

Figura 4.1: Posibles resultados en un diseño de series cronológicas.(Tomado de


Campbell y Stanley, p. 78)

Como podemos comprobar, en el caso A la cuestión es clara: se dan o no


diferencias entre las mediciones O5 y O4. (Para nosotros Y5 e Y4)

2
1
En la situación B no es suficiente, dado que el cambio que se aprecia desaparece
pronto, tal vez producido por su novedad; pero pasada esta, la situación vuelve a
la normalidad.

C representa una situación especial: viene apreciándose antes de X una


ganancia, que aumenta con X y que sigue elevándose a continuación.

D muestra un efecto retardado; la situación se complica por la tendencia a


perder fuerza el efecto de X pasado el tiempo. Tal vez lo conveniente fuera seguir
haciendo mediciones de Y.

En fin: como se puede apreciar, se dan, o pueden darse, muchas situaciones


diferentes que obligan a contrastes estadísticos en algunos casos pero, sobre todo,
a análisis cuidadosos y, con frecuencia, prolongados.

3. CRITERIOS PARA SELECCIONAR EL DISEÑO

A la luz de lo hasta aquí dicho, es fácil deducir que los dos grandes criterios tienen que
ver con los dos objetivos planteados por Kerlinger. Esto es: debemos seleccionar aquel
diseño que pueda dar respuesta a las preguntas en que se concreta el problema y acorde
con la hipótesis del investigador, y de entre los posibles, aquel que controle en mayor
medida la varianza de las variables extrañas, a fin de evitar que se conviertan en hipótesis
rivales a la del investigador.

3.1. Responder a las preguntas de la investigación

La primera cuestión parece obvia, pero no siempre el investigador analiza si su diseño


cumple con requisito tan lógico.

En este punto se puede fallar, fundamentalmente, de dos maneras: utilizando un número


menor o mayor de grupos que los aludidos en la pregunta, o acudiendo a diseños más
sencillos que la complejidad de dicha pregunta. Veamos:

Si el investigador desea responder a la siguiente cuestión: ¿Cuál de los métodos, A, B y


C, da mejores resultados en el logro de las competencias?, se puede plantear un diseño
con cuatro grupos, el de control y tres experimentales (Cuadro 4.8):

Grupo de control: Azar Y1


Grupo experimental A Azar XA Y2
Grupo experimental B Azar XB Y3
Grupo experimental C Azar XC Y4

Cuadro 4.8. Criterios para la selección del diseño adecuado

Realmente, la pregunta no exige el grupo de control como tal ya que todos ellos se pueden
tomar con control de resto. Bastaría con los tres grupos experimentales.

2
2
Sin embargo, ese diseño sería adecuado si la pregunta fuere: ¿Cuál de los tres métodos,
A, B o C da mejores resultados para el logro de las competencias en relación con la actual
metodología (no X)?

5.1. Controlar la varianza

El segundo criterio se puede apreciar en el siguiente enunciado del problema: ¿Cuál de


los métodos, A, B o C, y de los sistemas de motivación, M y N, da mejores resultados en
el logro de las competencias?

Si el investigador acude a dos diseños según el tipo 4, aparte de aumentar el trabajo,


estará renunciado a una excelente aportación a la teoría pedagógica: la posibilidad de
interacción.

Veamos primero las alternativas incorrectas:

Grupo de control Azar Y1


Grupo experimental Azar X (método) Y2

Grupo de control Azar Y1


Grupo experimental Azar X (sistema de motivación) Y2

Cuadro 4.9. Criterios para la selección del diseño adecuado. Alternativas incorrectas

Como se puede apreciar, hacemos en realidad dos investigaciones y no estará justificado


integrar el resultado de una y otra.

Sin embargo, en el siguiente esquema, de una sola investigación, probamos las dos
hipótesis y la posibilidad de interacción entre las variables (aquí denominadas factores,
por lo general).

Sistema de motivación
M N
A M/A N/A
Método B M/B N/B
C M/C N/C

Cuadro 4.10. Criterios para la selección del diseño adecuado. Alternativa correcta

Los sujetos de cada una de las celdillas reciben el cruce del nivel correspondiente de las
dos v.i.

2
3
Estas dos cuestiones deben completarse con otro importante aspecto: el control de las
posibles variables extrañas, antes y durante la realización del trabajo experimental.

A tales efectos, en este momento nos debe bastar con saber:


• Que hay sistemas para tratar de asegurar que, antes de aplicar la v.i., estamos
controlando determinadas variables. Por ejemplo, la asignación al azar de sujetos
y tratamientos (en nuestro caso, métodos y sistemas de motivación) es, en general,
el preferido. Cuando no es posible, podemos acudir a formar parejas de sujetos o
bloques de sujetos, más o menos equiparados en las variables relevantes. Veremos
este importante aspecto más adelante.
• Que debemos estar atentos, durante el tiempo de exposición de los sujetos a la
variable independiente a que no ocurran acontecimientos que puedan alterar el
diseño. Este importante aspecto lo estudiaremos bajo el nombre de validez interna.

5.3. Grado de generalización

Por último, un tercer criterio a tener en cuenta. Al investigador le interesa ante todo,
contrastar su hipótesis para poder decidir sobre su validación (no verificación), pero, una
vez alzando esto, o sea, una vez lograda la validez interna, su preocupación, como
debemos recordar de aspectos ya analizados, es la de poder extender sus conclusiones al
mayor número de sujetos y circunstancias posibles, esto es: generalizar los resultados por
procedimientos de inferencia.

El análisis de la generalización, denominado validez externa, lo haremos, también, más


adelante.

4. PROBLEMAS EDUCATIVOS Y DISEÑOS

Como hemos señalado con anterioridad, la investigación realizada a través del método
científico experimental es transversal a prácticamente todas las disciplinas que
constituyen el curriculum pedagógico, probablemente con la única excepción de la
Filosofía de la Educación y materias anejas y, tal vez, de las asignaturas históricas. ¿Se
puede decir, pues, que todos los problemas son abordables experimentalmente?

Esta parece ser la opinión de García Hoz13 cuando afirma:

"Cualquier cuestión pedagógica que pueda ser objeto de experiencia cae dentro de la
Pedagogía experimental. Si muchos problemas quedan aún sin resolver ello se debe no a
la incapacidad intrínseca de la Pedagogía experimental, sino a la imperfección actual de
algunas técnicas de medida y de evaluación"

y a la insuficiencia de ciertos diseños y de pruebas estadísticas adecuadas, añadiríamos


nosotros. García Hoz, de acuerdo con Buyse, llega a dejar fuera de su campo únicamente
"la determinación de los fines trascendentales" de la educación y algunos temas por
problemas morales, aunque reconoce que el fin de la educación, en cuanto que ha de ser
perseguido en forma progresiva, puede ser objeto de estudio empírico, quedando

13
O.c., p. 93

2
4
únicamente fuera el fin en cuanto tal, esto es, en cuanto que trasciende aquello de lo cual
es fin.

En el mismo sentido se expresaba Piaget, para quien el que un problema sea abordable o
no experimentalmente está ligado a un momento histórico concreto, de tal manera que
problemas típicos de la filosofía en el siglo XIX son ahora abordados por la psicología
experimental –Piaget14 pone el ejemplo del juicio en el marco de la inteligencia-; pues
bien, nuestro autor considera que, en la medida en que un problema concreto pueda
delimitarse con suficiente precisión como "para dar lugar a una solución por la
experiencia y el cálculo" y en que las soluciones alcanzadas por este procedimiento logren
"la aceptación general de los investigadores", estamos ante un problema abordable
experimentalmente.

En el pasado, Buyse, en el II Congreso Internacional de la Enseñanza Universitaria de la


Pedagogía (Florencia, 1957), le señaló como contenido propio para su actuación el
representado por este triple campo:

• Los problemas generales referentes al estudio y el aprendizaje.


• Los problemas de didáctica experimental, referidos a la eficacia de métodos y
procedimientos para mejorar el rendimiento.
• El estudio de las diferencias individuales y el tratamiento adecuado a las deficiencias o
talentos.

Más adelante, De Landsheere15, fijaría cinco grandes objetivos de investigación referidos


al conocimiento:

• del alumno,
• de los educadores y de la enseñanza,
• de las materias que deben ser enseñadas
• del sistema educativo y
• de las soluciones aportadas por otros.

Por su parte, J. Simon, al estudiar el dominio propio de la disciplina, reseña tres grandes
sectores de interacciones, referidas al escolar y

a) los conocimientos,
b) los métodos, tanto generales como didácticos y,
c) sus profesores.

Como puede apreciarse existe un acuerdo prácticamente general en referir la Pedagogía


experimental –tomado este término en su sentido más amplio de “empírica”- a una gran
diversidad de campos; sin embargo, salvo las palabras de Piaget y García Hoz, no hay
una referencia expresa a nuestra idea inicial de referirse a prácticamente todos los campos
excepto aquéllos que corresponden a materias que, como la propia Pedagogía
experimental, son de carácter metodológico. En efecto, en las concreciones de Simon, De

14
PIAGET, J. (1973): La psicología, en J. PIAGET, J. y otros: O. c. pp. 121-198, p. 124
15
LANDSHEERE, G. DE (1964) Introduction à la recherche pédagogique. París, Colin-Bourreliere, p. 16

2
5
Landsheere o de Buyse parece echarse de menos una referencia, al menos explícita, a todo
el proceso formativo, representado entre nosotros por aquellas materias que englobamos
bajo el área de Orientación, a no ser que le otorguen un sentido muy amplio al concepto
de aprendizaje; igualmente parecen faltar referencias explícitas a los problemas
organizativos, aunque puedan entenderse englobados bien en las referencias al sistema
educativo, bien a los tratamientos que se entienden adecuados a las deficiencias o al
desarrollo de los talentos.

De cualquier manera la aplicación de la metodología experimental a campos tan amplios


y variados no puede por menos de requerir técnicas más o menos específicas, además de
un conocimiento general de aquélla, y, por supuesto, un dominio suficientemente
profundo de aquellas materias sobre las que va a versar la investigación; ante la dificultad
real para unir en una sola persona conocimientos a veces muy dispares a un nivel de
especialización suficiente, nosotros nos manifestamos por una investigación empírica
interdisciplinar dentro del marco de las ciencias de la educación, sin excluir la
participación de especialistas en otras áreas, especialmente en economía y planificación,
y, en el caso de los métodos y recursos didácticos, de profesionales y especialistas en las
diversas áreas (Física, Química, idiomas, Geografía...) de docencia-aprendizaje.

Concluimos nuestra reflexión haciendo una mención expresa a la importancia de la


investigación en pro de la calidad de la educación, y acudimos para ello a dos documentos
de la UNESCO:

En el artículo 5 de la Declaración mundial sobre la educación superior en el siglo XXI:


Visión y acción y Marco de acción prioritaria para el cambio y el desarrollo de la
educación superior 16leemos:

Artículo 5. Promoción del saber mediante la investigación en los ámbitos de la ciencia, el arte y las
humanidades y la difusión de sus resultados
a) El progreso del conocimiento mediante la investigación es una función esencial de todos
los sistemas de educación superior que tienen el deber de promover los estudios de postgrado.
Deberían fomentarse y reforzarse la innovación, la interdisciplinariedad y la transdisciplinariedad
en los programas, fundando las orientaciones a largo plazo en los objetivos y necesidades sociales
y culturales. Se debería establecer un equilibrio adecuado entre la investigación fundamental y la
orientada hacia objetivos específicos.
b) Las instituciones deberán velar por que todos los miembros de la comunidad académica
que realizan investigaciones reciban formación, recursos y apoyo suficientes. Los derechos
intelectuales y culturales derivados de las conclusiones de la investigación deberían utilizarse en
provecho de la humanidad y protegerse para evitar su uso indebido.
c) Se debería incrementar la investigación en todas las disciplinas, comprendidas las ciencias
sociales y humanas, las ciencias de la educación (incluida la investigación sobre la educación
superior), la ingeniería, las ciencias naturales, las matemáticas, la informática y las artes, en el
marco de políticas nacionales, regionales e internacionales de investigación y desarrollo. Reviste
especial importancia el fomento de las capacidades de investigación en los establecimientos de
enseñanza superior con funciones de investigación puesto que cuando la educación superior y la
investigación se llevan a cabo en un alto nivel dentro de la misma institución se logra una
potenciación mutua de la calidad. Estas instituciones deberían obtener el apoyo material y
financiero necesario de fuentes públicas y privadas.

16
http://www.unesco.org/education/educprog/wche/declaration_spa.htm

2
6
.Y más adelante, en su artículo 11, en relación con la evaluación de la calidad,
íntimamente ligada a la evaluación en su enfoque de investigación evaluativa, se lee

Artículo 11. Evaluación de la calidad

a) La calidad de la enseñanza superior es un concepto pluridimensional que debería


comprender todas sus funciones y actividades: enseñanza y programas académicos, investigación
y becas, personal, estudiantes, edificios, instalaciones, equipamiento y servicios a la comunidad y
al mundo universitario. Una autoevaluación interna y un examen externo realizados con
transparencia por expertos independientes, en lo posible especializados en lo internacional, son
esenciales para la mejora de la calidad. Deberían crearse instancias nacionales independientes, y
definirse normas comparativas de calidad, reconocidas en el plano internacional. Con miras a tener
en cuenta la diversidad y evitar la uniformidad, debería prestarse la atención debida a las
particularidades de los contextos institucional, nacional y regional. Los protagonistas deben ser
parte integrante del proceso de evaluación institucional.
b) La calidad requiere también que la enseñanza superior esté caracterizada por su dimensión
internacional: el intercambio de conocimientos, la creación de sistemas interactivos, la movilidad
de profesores y estudiantes y los proyectos de investigación internacionales, aun cuando se tengan
debidamente en cuenta los valores culturales y las situaciones nacionales.

c) Para lograr y mantener la calidad nacional, regional o internacional, ciertos elementos son
especialmente importantes, principalmente la selección esmerada del personal y su
perfeccionamiento constante, en particular mediante la promoción de planes de estudios adecuados
para el perfeccionamiento del personal universitario, incluida la metodología del proceso
pedagógico, y mediante la movilidad entre los países y los establecimientos de enseñanza superior
y entre los establecimientos de educación superior y el mundo del trabajo, así como la movilidad
de los estudiantes en cada país y entre los distintos países. Las nuevas tecnologías de la información
constituyen un instrumento importante en este proceso debido a su impacto en la adquisición de
conocimientos teóricos y prácticos.

El comunicado de la Conferencia Mundial sobre la Educación Superior - 2009: La nueva


dinámica de la educación superior y la investigación para el cambio social y el
desarrollo17, afirma en sus puntos 17 y 18:

17. Los resultados de la investigación científica deberían difundirse más ampliamente


mediante las TIC y el acceso gratuito a la documentación científica.
18. La formación que ofrecen los establecimientos de enseñanza superior debería atender las
necesidades sociales y anticiparse al mismo tiempo a ellas. Esto comprende la promoción de la
investigación con miras a elaborar y aplicar nuevas tecnologías y a garantizar la prestación de
capacitación técnica y profesional, la educación empresarial y los programas de aprendizaje a lo
largo de toda la vida.

RESUMEN

Una vez recordado lo que representa la investigación científica, hemos analizado dos
grandes cuestiones:

17
Vid. http://www.unesco.org/education/WCHE2009/comunicado_es.pdf

2
7
La primera se refiere a uno de los dos conceptos de nuestra asignatura, el diseño. Tras
considerar algunas definiciones, nos hemos centrado en la ofrecida por Kerlinger, como
el plan, la estructura y la estrategia de la investigación, por su calidad y capacidad de
síntesis, así como por añadir, en forma breve, los dos grandes objetivos: responder a las
preguntas de la investigación y controlar la varianza.

El concepto de diseño ha sido desarrollado mediante la consideración y la caracterización


de los tres grandes tipos: pre-experimentales, experimentales y cuasiexperimentales, así
como sus puntos fuertes y sus limitaciones.

La segunda gran cuestión analizada tiene que ver con los criterios que deben someterse a
consideración del investigador antes de decidir cuál es el diseño más adecuado. En este
punto, hemos tomado como referencia los objetivos citados por Kerlinger: responder a
las preguntas de la investigación y controlar la varianza En igualdad de estas
características, añadimos un tercer criterio, grado de generalización, dado que, añade a su
validez interna un mayor o menor grado de generalización de los resultados.

Por último, hemos analizado las posibilidades de aplicación de la metodología científico-


experimental, en su acepción más amplia, entendida esta como “empírica”, a los
diferentes ámbitos y problemas educativos, comprobando su gran aplicabilidad y su
relación con la mejora de la calidad de la Educación, aportando al respecto las ideas de
UNESCO.

2
8

También podría gustarte