Atención Temprana. Teoría y Práctica PDF
Atención Temprana. Teoría y Práctica PDF
Atención Temprana. Teoría y Práctica PDF
1
Septiembre-Octubre 2009
CONSTRUCCIÓN DE
INSTRUMENTOS DE MEDIDA
EN PSICOLOGÍA
JOSÉ MUÑIZ Y
EDUARDO FONSECA-PEDRERO
Universidad de Oviedo
ISSN 1989-3906
Contenido
DOCUMENTO BASE............................................................................................ 3
Construcción de Instrumentos de Medida en Psicología
FICHA 1............................................................................................................ 11
Directrices para la elaboración de ítems de elección múltiple
(Haladyna, Downing y Rodríguez, 2002)
FICHA 2............................................................................................................ 13
Modelo para la Evaluación de la Calidad de los Tests
Documento base.
CONSTRUCCIÓN DE INSTRUMENTOS DE
MEDIDA EN PSICOLOGÍA
Introducción
Muchas de las decisiones que toman los psicólogos en su quehacer diario están basadas en datos obtenidos mediante
instrumentos de medida tales como tests, escalas o cuestionarios. Si estos instrumentos no tienen unas propiedades
psicométricas adecuadas las inferencias hechas a partir de ellos serán incorrectas. Por ello, y dada la trascendencia de
las decisiones y las consecuencias que a partir de ellos se derivan, tanto a nivel personal como social, es fundamental
disponer de unos instrumentos de evaluación adecuados, construidos y validados mediante un proceso estandarizado,
riguroso y objetivo y en función de unos estándares de calidad (Anastasi y Urbina, 1998; Kane, 2006; Messick, 1998;
Muñiz, 1997b; Padilla, Gómez, Hidalgo y Muñiz, 2006; Padilla, Gómez, Hidalgo y Muñiz, 2007; Sireci, 2007; Sireci
y Parker, 2006; Zumbo, 2007).
Los requisitos técnicos que debe cumplir un instrumento de medida aparecen bien documentados en la literatura psi-
cométrica especializada (American Educational Research Association, American Psychological Association y National
Council on Measurement in Education, 1999; Carretero-Dios y Pérez, 2005; Clark y Watson, 1995; Downing, 2006;
Morales, Urosa y Blanco, 2003; Muñiz, 1996, 1997a, 2000; Nunnally y Bernstein, 1995; Schmeiser y Welch, 2006;
Smith, Fischer y Fister, 2003; Wilson, 2005). No obstante, puede resultar de gran utilidad la descripción y síntesis de
los pasos concretos que se deben seguir en todo proceso de construcción de un instrumento de medida, y éste será
precisamente el objetivo central de este módulo.
Antes de utilizar un instrumento de medida, por muy popular que sea, el profesional debe preguntarse si se constru-
yó siguiendo unos pasos estandarizados, rigurosos y objetivos, que garanticen su utilización en una población y con-
texto determinados. Se tiende a olvidar con bastante frecuencia que si el proceso de construcción de los instrumentos
de evaluación se lleva cabo de forma defectuosa todas las inferencias que se obtengan a partir de las puntuaciones y
la toma de decisiones que de ellas se deriven serán equivocadas e infundadas (Elosúa, 2003; Muñiz, 2004; Muñiz, Fi-
dalgo, García-Cueto, Martínez y Moreno, 2005; Schmeiser y Welch, 2006).
La construcción de un instrumento de medida es un proceso complejo que se puede sintetizar en varios pasos, si
bien éstos no son automáticos y universales, pudiendo variar en función del propósito del instrumento de medida (se-
lección, diagnóstico, etc.), del modelo psicométrico utilizado (Teoría clásica, Teoría de Respuesta a los Ítems), del tipo
de respuesta (selección o construcción), del formato de administración (lápiz y papel o informatizado), o del contexto
de evaluación (diagnóstico, evaluación de rendimientos, etc.), por citar sólo algunos casos. Todo el proceso de cons-
trucción debe ser definido objetivamente siguiendo unos principios teóricos y métricos para así maximizar la validez
de las inferencias hechas a partir de la prueba (Downing, 2006; Smith, 2005). Puede decirse que el proceso de valida-
ción ya comienza a fraguarse antes de la propia elaboración empírica del instrumento, pues todas las acciones que re-
alicemos antes, durante y después permitirán recoger datos que ayuden a la interpretación de las puntuaciones
(Elosua, 2003; Muñiz, 2004; Zumbo, 2007).
FOCAD
Formación Continuada a Distancia
3
ble objeto de medición, cuál va a ser el contexto de aplicación o circunstancias en las que se va a administrar el
instrumento de evaluación, el tipo de aplicación (individual, colectiva), el formato de aplicación (lápiz y papel,
informática), y qué decisiones se van a tomar a partir de las puntuaciones. Las causas que pueden llevar a la cons-
trucción de un instrumento de evaluación son diversas. Por ejemplo, un psicólogo puede decidir construir un ins-
trumento porque no existe ningún otro para medir una determinada variable, porque los instrumentos existentes
en el mercado presentan unas pésimas propiedades psicométricas, o simplemente porque no incorporan alguna
faceta relevante para analizar dicho constructo. Los responsables de la construcción del instrumento de medida
no sólo deben especificar el motivo por el cual quieren desarrollar un instrumento nuevo, sino también deben de-
limitar con claridad cuál es el contexto en el que se va a aplicar, lo que incluye necesariamente la población ob-
jeto de medición (pacientes, alumnos, empresas, departamentos, etc.) y las circunstancias de aplicación (lugar,
medios de los que se dispone y condiciones de aplicación, individual o colectiva). También debe especificarse de
antemano con qué propósito van a ser utilizadas las puntuaciones y qué decisiones se van a tomar a partir de
ellas. En este sentido, las puntuaciones en un instrumento de evaluación pueden servir para propósitos varios co-
mo por ejemplo: seleccionar, diagnosticar, clasificar, orientar, evaluar un dominio específico o incluso como mé-
todo de screening (American Educational Research Association et al., 1999). Se debe dejar claro que las
inferencias que se extraigan de las puntuaciones de un instrumento de medida son siempre para un uso, contexto
y población determinados. Nótese que lo que puede ser válido para un grupo determinado de personas o pobla-
ción tal vez no lo sea para otra, y lo que pueda ser válido en un contexto de evaluación no tiene por qué serlo en
otro diferente (Zumbo, 2007). En suma, un test vale para lo que vale, y hay que explicitarlo de forma clara. Ello
no es óbice para que una prueba desarrollada originalmente con una determinada finalidad se revele en el futuro,
tras distintos procesos de validación, como buena
predictora de otros aspectos inicialmente no con-
Tabla 1 templados.
Fases del proceso de construcción de instrumentos de medida
FOCAD
4 Formación Continuada a Distancia
estimación), así como ponderar en demasía una faceta o dominio (sobreestimación) (Smith et al., 2003). Una defi-
nición operativa y precisa del constructo influye de forma determinante en la posterior obtención de los diferentes
tipos de evidencias, ayuda a especificar las conductas más representativas de la variable objeto de medición y fa-
cilita el proceso de construcción de ítems (Carretero-Dios y Pérez, 2005; Elosúa, 2003; Muñiz et al., 2005; Sireci,
1998; Smith, 2005).
No sólo es importante una definición operativa de la variable sino que también es preciso identificar y definir las
facetas o dominios del mismo (definición semántica) y la relación que se establece entre ellas así como con otras
variables de interés (definición sintáctica) (Lord y Novick, 1968). La variable objeto de medición no se encuentra
aislada en el mundo, sino que está en relación o interacción (positiva y/o negativa) con otras variables. Es intere-
sante comprender y analizar estas relaciones especificándolas de antemano con el propósito de llevar a cabo pos-
teriores estudios dirigidos a la obtención de evidencias de validez (Carretero-Dios y Pérez, 2005; Muñiz, 2004;
Smith, 2005).
FOCAD
Formación Continuada a Distancia
5
directrices elaboradas para el desarrollo de ítems de elección múltiple (Downing y Haladyna, 2006; Haladyna, 2004;
Haladyna et al., 2002; Moreno et al., 2006; Moreno et al., 2004; Muñiz et al., 2005).
Durante las fases iniciales de la construcción del banco de ítems se recomienda que el número de ítems inicial sea
como mínimo el doble del que finalmente se considera que podrían formar parte de la versión final del instrumento
de medida. La razón es bien sencilla, muchos de ellos por motivos diferentes (métricos, comprensibilidad, dificultad,
etc.) se acabarán desechando, por lo que sólo quedarán aquellos que ofrezcan mejores indicadores o garantías técni-
cas (sustantivas y métricas). Finalmente, para garantizar la validez de contenido de los ítems (Sireci, 1998) se ha de re-
currir a la consulta de expertos y a la revisión exhaustiva de las fuentes bibliográficas, así como a otros instrumentos
similares ya existentes. En relación con la valoración de los ítems por parte de los expertos y con la finalidad de una
evaluación más precisa y objetiva del conjunto inicial de ítems, se puede pedir a los expertos que juzguen, a partir de
un cuestionario, si los ítems están bien redactados para la población de interés, si son o no pertinentes para evaluar
una faceta o dominio determinado y si cada ítem representa de forma adecuada la variable o dimensión de interés.
Véanse en la Ficha 1 las directrices para la elaboración de ítems de elección múltiple de Haladyna, Downing y Ro-
dríguez (2002), adaptadas por Moreno, Martínez y Muñiz (2004).
FOCAD
6 Formación Continuada a Distancia
luación. Finalmente, se debe construir una nueva versión del instrumento de medida que es revisada de nuevo por el
grupo de expertos y que será la que en última instancia se administre en el estudio final de campo.
8. Estudio de campo
En la fase del estudio de campo se incluye la selección de la muestra (tipo, tamaño y procedimiento), la administra-
ción del instrumento de medida a los participantes y el control de calidad y seguridad de la base de datos.
La representatividad y generalizabilidad de nuestros resultados depende en gran medida de que la muestra elegida
sea realmente representativa de la población objetivo de estudio. Elegir una muestra pertinente en cuanto a represen-
tatividad y tamaño es esencial, si se falla en esto todo lo demás va a quedar invalidado. El muestreo probabilístico
siempre es preferible al no probabilístico, para la estimación del tamaño muestral requerido para un determinado
error de medida ha de acudirse a los textos especializados, o consultar los expertos en la tecnología de muestreo. Es
recomendable que por cada ítem administrado tengamos al menos 5 ó 10 personas, si bien determinadas técnicas es-
tadísticas pueden reclamar incluso más de cara a una buena estimación de los parámetros.
Las actividades relacionadas con la administración y el uso del instrumento de medida son cruciales durante el pro-
ceso de validación (Muñiz y Bartram, 2007; Muñiz et al., 2005). Cuando administramos cualquier instrumento de me-
dida hay que cuidarse de que las condiciones físicas de la aplicación sean las adecuadas (luz, temperatura, ruido,
comodidad de los asientos, etc.). Igualmente, las personas encargadas de la administración del instrumento de medida
deben establecer una buena relación (rapport) con los participantes, estar familiarizados con la administración de este
tipo de herramientas, dar las instrucciones a los participantes correctamente, ejemplificar con claridad cómo se resuel-
ven las preguntas, supervisar la administración y minimizar al máximo las posibles fuentes de error. Por todo ello es
recomendable elaborar unas pautas o directrices que permitan estandarizar la administración del instrumento de me-
dida.
El control de calidad de la base de datos es otro tema a veces poco valorado en el proceso de construcción de instru-
mentos de medida. Por control de calidad nos referimos a una actividad que tiene como intención comprobar que los
datos introducidos en la base de datos se correspondan exactamente con las puntuaciones de los participantes en la
prueba. Frecuentemente cuando introducimos las puntuaciones de los participantes en una base de datos se pueden
cometer multitud de errores, por ello es altamente recomendable comprobar de forma rigurosa que los datos se han
introducido correctamente. Una estrategia sencilla que se puede utilizar a posteriori es la de extraer al azar un cierto
porcentaje de los participantes y comprobar la correspondencia entre las puntuaciones en la prueba y la base de da-
tos. No obstante los mejores errores son los que no se cometen, así que hay que poner todos los medios para minimi-
zar los errores a la hora de construir la base de datos.
FOCAD
Formación Continuada a Distancia
7
cométricas del mismo: análisis de los ítems, estudio de la dimensionalidad, estimación de la fiabilidad, obtención de
evidencias de validez y construcción de baremos.
En esta fase debe primar por encima de todo el rigor metodológico. Todos los pasos y decisiones que se tomen
se deben describir con claridad y deben de estar correctamente razonadas. En un primer lugar se deben analizar
los ítems tanto a nivel cualitativo como a nivel cuantitativo. Para seleccionar los mejores ítems desde el punto de
vista psicométrico se pueden tener en cuenta el índice de dificultad (cuando proceda), el índice de discrimina-
ción, las cargas factoriales y/o el funcionamiento diferencial de los ítems (Muñiz et al., 2005). No se debe perder
de vista que la finalidad del análisis psicométrico de los ítems no debe ser otro que maximizar o potenciar las
propiedades métricas del instrumento de medida; no obstante, no existen reglas universales y las consideraciones
estadísticas no garantizan unos resultados con significación conceptual, por lo que hay que tener presente tam-
bién los aspectos sustantivos (Muñiz et al., 2005). Una vez seleccionados los ítems se procede al estudio de la di-
mensionalidad del instrumento para conocer su estructura interna. En el caso de encontrar una solución
esencialmente unidimensional nos podríamos plantear la construcción de una puntuación total, en el caso de una
estructura multidimensional deberíamos pensar en un conjunto de escalas o perfil de puntuaciones. El análisis
factorial y el análisis de componentes principales son las técnicas más utilizadas para examinar la estructura inter-
na, si bien no son las únicas (Cuesta, 1996). Una vez determinado la dimensionalidad del instrumento de medida
se lleva a cabo una estimación de la fiabilidad, para lo cual se pueden seguir diversas estrategias, tanto desde el
punto de vista de la teoría clásica de los tests como de la teoría de respuesta a los ítems (Muñiz, 1997a, 2000).
Posteriormente, y de cara a obtener evidencias de validez, se debe observar la relación del instrumento de medi-
da con otros instrumentos de evaluación, y finalmente, se lleva a cabo una baremación del instrumento de medi-
da donde se establecen puntos de corte normativos. Los desarrollos estadísticos y técnicos en este campo son
notables, incorporándose cada vez más a menudo los métodos estadísticos robustos (Erceg-Hurn y Mirosevich,
2008), el análisis factorial confirmatorio (Brown, 2006; Kline, 2005) y el funcionamiento diferencial de los ítems,
por citar sólo tres casos (Muñiz et al., 2005).
A modo de conclusión
Se han descrito los diez pasos fundamentales que habría que seguir para desarrollar un instrumento de medida objeti-
vo y riguroso para evaluar variables psicológicas. Estos pasos no se pueden abordar en profundidad desde un punto de
vista técnico en un breve documento como éste, no se trata de eso, sino de poner a disposición de los profesionales
una guía general que les permita obtener una visión panorámica de las actividades implicadas en el desarrollo de los
instrumentos de medida. Se cita además la bibliografía especializada a la que pueden acudir aquellos profesionales
interesados en profundizar en esta temática.
El campo de la elaboración de instrumentos de medida está altamente desarrollado y es necesario acudir a personal
cualificado para su desarrollo adecuado, constituyendo una temeridad dejarlo en manos de aficionados bienintencio-
nados.
Que un instrumento de evaluación esté adecuadamente construido y reúna las propiedades técnicas adecuadas es
condición necesaria, pero no es suficiente, además hay que utilizar la prueba de forma pertinente. Con demasiada fre-
cuencia una buena prueba no genera los resultados esperados por hacer un mal uso de ella. Para todo lo relacionado
con el uso de las pruebas en contextos nacionales e internacionales pueden consultarse los trabajos de Muñiz
(1997b), Prieto y Muñiz (2000) y Muñiz y Bartram (2007).
FOCAD
8 Formación Continuada a Distancia
REFERENCIAS
American Educational Research Association, American Psychological Association, y National Council on Measure-
ment in Education (1999). Standars for Educational and Psychological Testing. Washington, DC: Author.
Anastasi, A., y Urbina, S. (1998). Los tests psicológicos. México: Prentice Hall.
Balluerka, N., Gorostiaga, A., Alonso-Arbiol, I., y Haranburu, M. (2007). La adaptación de instrumentos de medida de
unas culturas a otras: una perspectiva práctica. Psicothema, 124-133.
Brown, T. A. (2006). Confirmatory factor analysis for applied research. New York: Guilford Press.
Calero, D. y Padilla, J. L. (2004). Técnicas psicométricas: los tests. En R. Fernández-Ballesteros (Ed.), Evaluación psico-
lógica: Conceptos, métodos y estudio de casos (pp. 323-355). Madrid: Pirámide.
Carretero-Dios, H., y Pérez, C. (2005). Normas para el desarrollo y revisión de estudios instrumentales. International
Journal of Clinical and Health Psychology, 5, 521-551.
Clark, L. A., y Watson, D. (1995). Constructing Validity: Basic issues in objective scale development. Psychological As-
sessment 7, 309-319.
Cuesta, M. (1996). Unidimensionalidad. En J. Muñiz (Ed.), Psicometría (pp.. 239-292). Madrid: Universitas.
Downing, S. M. (2006). Twelve steps for effective test development. En S. M. Downing y T. M. Haladyna (Eds.), Hand-
book of test development (pp. 3-25). Mahwah, NJ: Lawrence Erlbaum Associates.
Downing, S. M., y Haladyna, T. M. (2006). Handbook of test development. Mahwah, NJ: Lawrence Erlbaum Associ-
ates.
Elosúa, P. (2003). Sobre la validez de los tests. Psicothema, 15, 315-321.
Erceg-Hurn, D. M., y Mirosevich, V. M. (2008). Modern robust statistical methods: An easy way to maximize the accu-
racy and power of your research. American Psychologist, 63, 591-601.
Haladyna, T. M. (2004). Developing and validating multiple-choice test item (3ª ed.). Hillsdale, NJ: LEA.
Haladyna, T. M., Downing, S. M., y Rodríguez, M. C. (2002). A review of multiple-choice item-writing guidelines. Ap-
plied Measurement in Education, 15(3), 309-334.
Hambleton, R. K., Merenda, P. F., y Spielberger, C. D. (2005). Adapting educational and psychological tests for cross-
cultural assessment. London: Lawrence Erlbaum Associates.
Kane, M. T. (2006). Validation. En R. L. Brennan (Ed.), Educational measurement (4th ed.) (pp. 17-64). Westport, CT:
American Council on Education/Praeger.
Kline, R. B. (2005). Principles and practice of structural equation modeling (2 ed.). New York: The Guilford Press.
Lord, F. M., y Novick, M. R. (1968). Statistical theories of mental test scores. New York: Addison-Wesley.
Messick, S. (1998). Test validity: A matter of consequence. Social Indicators Research 45, 35-44.
Morales, P., Urosa, B., y Blanco, A. B. (2003). Construcción de escalas de actitudes tipo Likert. Madrid: La Muralla.
Moreno, R., Martínez, R., y Muñiz, J. (2006). New guidelines for developing multiple-choice items. Methodology, 2,
65-72.
Moreno, R., Martínez, R. J., y Muñiz, J. (2004). Directrices para la construcción de ítems de elección múltiple. Psicot-
hema, 16(3), 490-497.
Muñiz, J. (Ed.) (1996). Psicometría. Madrid: Universitas.
Muñiz, J. (1997a) Introducción a la teoría de respuesta a los ítems. Madrid: Pirámide.
Muñiz, J. (1997b). Aspectos éticos y deontológicos de la evaluación psicológica. En A. Cordero (ed.), La evaluación
psicológica en el año 2000. Madrid: Tea Ediciones.
Muñiz, J. (2000). Teoría Clásica de los Tests. Madrid: Pirámide.
Muñiz, J. (2004). La validación de los tests. Metodología de las Ciencias del Comportamiento, 5, 121-141.
Muñiz, J., y Bartram, D. (2007). Improving international tests and testing. European Psychologist, 12, 206-219.
Muñiz, J., Fidalgo, A. M., García-Cueto, E., Martínez, R., y Moreno, R. (2005). Análisis de los ítems. Madrid: La Muralla.
Muñiz, J. y Fonseca-Pedrero, E. (2008). Construcción de instrumentos de medida para la evaluación universitaria. Re-
vista de Investigación en Educación, 5, 13-25.
Nunnally, J. C., y Bernstein, I. J. (1995). Teoría psicométrica. México: McGraw Hill.
Padilla, J. L., Gómez, J., Hidalgo, M. D., y Muñiz, J. (2006). La evaluación de las consecuencias del uso de los tests en
la teoría de la validez. Psicothema, 19, 307-312.
Padilla, J. L., Gómez, J., Hidalgo, M. D., y Muñiz, J. (2007). Esquema conceptual y procedimientos para analizar la va-
lidez de las consecuencias del uso de los test. Psicothema, 19, 173-178.
FOCAD
Formación Continuada a Distancia
9
Prieto, G. y Muñiz, J. (2000). Un modelo para evaluar la calidad de los tests utilizados en España. Papeles del Psicólo-
go, 77, 65-71.
Schmeiser, C. B., y Welch, C. (2006). Test development. En R. L. Brennan (Ed.), Educational Measurement (4th ed.)
(pp. 307-353). Westport, CT: American Council on Education/Praeger.
Sireci, S. G. (1998). Gathering and analyzing content validity data. Educational Assessment, 5, 299-321.
Sireci, S. G. (2007). On validity theory and test validation. Educational Researcher 36, 477-481.
Sireci, S. G., y Parker, P. (2006). Validity on trial: Psychometric and legal conceptualizations of validity. Educational
Measurement: Issues and Practice 25, 27-34.
Smith, G. T., Fischer, S., y Fister, S. M. (2003). Incremental validity principles in test construction. Psychological As-
sessment, 15, 467-477.
Smith, S. T. (2005). On construct validity: Issues of method measurement. Psychological Assessment, 17, 396-408.
Wilson, M. (2005). Constructing measures: An item response modeling approach. Mahwah, NJ: Lawrence Erlbaum As-
sociates.
Zumbo, B. D. (2007). Validity: Foundational issues and statistical methodology. En C. R. Rao y S. Sinharay (Eds.),
Handbook of statistics: Vol. 26. Psychometrics (pp. 45-79). Amsterdam, Netherlands: Elsevier Science.
FOCAD
10 Formación Continuada a Distancia
Ficha 1.
DIRECTRICES PARA LA ELABORACIÓN DE ÍTEMS
DE ELECCIÓN MÚLTIPLE
(Haladyna, Downing y Rodríguez, 2002)
Referidas al contenido
1. Cada ítem debería reflejar un contenido específico y una única conducta mental específica, tal como sea requerido
en las especificaciones del test.
2. Base cada ítem en un contenido importante para el aprendizaje; evite contenidos triviales
3. Use material novedoso para evaluar el aprendizaje de alto nivel. Cuando los utilice en un ítem, parafrasee el len-
guaje de los libros de texto, o el lenguaje utilizado durante la instrucción, para así evitar evaluar el mero recuerdo.
4. Mantenga el contenido de cada ítem independiente del contenido de otros ítems del test.
5. Al escribir ítems de elección múltiple, evite contenidos muy específicos o muy generales.
6. Evite ítems basados en opiniones
7. Evite ítems con trampas
8. Use un vocabulario sencillo para el grupo de estudiantes que están siendo evaluados
Referidas al formato
9. Del formato convencional de elección múltiple utilice la interrogación, completar frases, la mejor respuesta, elec-
ción alternativa, verdadero-falso, la verdadero-falso múltiple, emparejamiento, los conjuntos de items y los depen-
dientes de contexto; sin embargo, evite el formato de elección múltiple complejo.
10. Construya el ítem de forma vertical, no horizontal
Referidas al estilo
11. Edite y ensaye los ítems
12. Use gramática, puntuación, mayúsculas y minúsculas y deletreo correctos
13. Minimice la cantidad de lectura en cada ítem
FOCAD
Formación Continuada a Distancia
11
28. Evite dar pistas sobre la respuesta correcta, tales como
a. Determinantes específicos como siempre, nunca, completamente y absolutamente
b. Asociaciones por sonido similar y opciones idénticas o parecidas a términos del enunciado
c. Inconsistencias gramaticales que indiquen al sujeto la elección correcta
d. Opción correcta destacada
e. Pares o tríos de opciones que indiquen al sujeto la opción correcta
f. Opciones claramente absurdas o ridículas
29. Haga plausibles a todos los distractores
30. Use errores usuales de los estudiantes para escribir los distractores
31. Use el humor si es compatible con el profesor y con el ambiente de aprendizaje
FOCAD
12 Formación Continuada a Distancia
Ficha 2.
MODELO PARA LA EVALUACIÓN DE LA CALIDAD DE
LOS TESTS
1. Descripción general del test1
1.1. Nombre del test:
1.2. Nombre del test en su versión original (si la versión española es una adaptación):
1.3. Autor/es del test original:
1.4. Autor/es de la adaptación española:
1.5. Editor del test en su versión original:
1.6. Editor de la adaptación española:
1.7. Fecha de publicación del test original:
1.8. Fecha de publicación del test en su adaptación española:
1.9. Fecha de la última revisión del test en su adaptación española:
1.10. Clasifique el área general de la o las variables que pretende medir el test2
( ) Inteligencia
( ) Aptitudes
( ) Habilidades y Rendimiento académico
( ) Psicomotricidad
( ) Neuropsicología
( ) Personalidad
( ) Motivación
( ) Actitudes
( ) Intereses
( ) Escalas de Desarrollo
( ) Competencia Curricular
( ) Escalas Clínicas
( ) Potencial de Aprendizaje
( ) Otros (Indique cuál:............................................)
FOCAD
Formación Continuada a Distancia
13
1.13. Formato de los ítems4:
( ) Respuesta libre
( ) Respuesta dicotómica (si/no, verdadero/falso, etc)
( ) Elección múltiple
( ) Tipo Likert
( ) Adjetivos bipolares
( ) Otro (Indique cuál:............................................)
1.15. Soporte6:
( ) Administración oral
( ) Papel y lápiz
( ) Manipulativo
( ) Informatizado
( ) Otro (Indique cuál:............................................)
1.16. Cualificación requerida para el uso del test de acuerdo con la documentación aportada:
( ) Ninguna
( ) Entrenamiento y Acreditación especifica*
( ) Nivel A7
( ) Nivel B
( ) Nivel C
( ) Otra (Indique cuál:............................................)
1.17. Descripción de las poblaciones a las que el test es aplicable (especifique el rango de edad, nivel educativo, etc.,
y si el test es aplicable en ciertas poblaciones específicas: minorías étnicas, discapacitados, grupos clínicos, etc.):
1.18. Indique si existen diferentes formas del test y sus características (formas paralelas, versiones abreviadas, versio-
nes informatizadas o impresas, etc). En el caso de que existan versiones informatizadas, describa los requisitos míni-
mos del hardware y software.
FOCAD
14 Formación Continuada a Distancia
1.20. Puntuaciones: (Describa el procedimiento para obtener las puntuaciones directas).
*En caso afirmativo haga una breve descripción no evaluativa del Informe Automatizado, en la que se hagan constar
las características fundamentales, tales como tipo de informe, estructura, claridad, estilo, tono, etc.
1.25. Tiempo estimado para la aplicación del test (instrucciones, ejemplos y respuestas a los ítems).
En aplicación individual:...........................
En aplicación colectiva:............................
1.27. Precio de un juego completo de la prueba (documentación, test, plantillas de corrección; en el caso de tests in-
formatizados no se incluye el costo del hardware):
1.28. Precio y número de ejemplares del paquete de cuadernillos (tests de papel y lápiz):
1.29. Precio y número de ejemplares del paquete de hojas de respuesta (tests de papel y lápiz):
1.30. Precio de la corrección y/o elaboración de informes por parte del editor:
FOCAD
Formación Continuada a Distancia
15
2. Valoración de las características del test
2.1. Calidad de los materiales del test (objetos, material impreso o software):
* ( ) Inadecuada
** ( ) Adecuada pero con algunas carencias
*** ( ) Adecuada
**** ( ) Buena
***** ( ) Excelente (Impresión y presentación de gran calidad, software muy atractivo y eficiente, etc.)
2.4. Adaptación del test (si el test ha sido traducido y adaptado para su aplicación en España):
( ) Característica no aplicable para este instrumento
( ) No se aporta información en la documentación
* ( ) Inadecuada
** ( ) Adecuada pero con algunas carencias
*** ( ) Adecuada
**** ( ) Buena
***** ( ) Excelente (Descripción precisa del procedimiento de traducción, de la adaptación
de los ítems a la cultura española, de los estudios de equivalencia con la
versión original, utilización de la normativa de la International Test
Commission, etc.).
FOCAD
16 Formación Continuada a Distancia
2.6. Facilidad para comprender la tarea:
* ( ) Inadecuada
** ( ) Adecuada pero con algunas carencias
*** ( ) Suficiente
**** ( ) Buena
***** ( ) Excelente (Los sujetos de las poblaciones a las que va dirigido el test
pueden comprender fácilmente la tarea a realizar).
2.10. Validez
2.10.1. Validez de contenido8:
2.10.1.1. Calidad de la representación del contenido o dominio:
* ( ) Inadecuada
** ( ) Adecuada pero con algunas carencias
*** ( ) Adecuada
**** ( ) Buena
***** ( ) Excelente (En la documentación se presenta una precisa definición del
contenido. Los ítems muestrean adecuadamente todas las facetas del
contenido)
8
Este aspecto es esencial en los tests referidos al criterio y particularmente en los tests de rendimiento académico. Emita su juicio
sobre la calidad de la representación del contenido o dominio. Si en la documentación aportada aparecen las evaluaciones de
los expertos, tómelas en consideración.
FOCAD
Formación Continuada a Distancia
17
2.10.1.2. Consultas a expertos9:
( ) No se aporta información en la documentación
* ( ) No se ha consultado a expertos sobre la representación del contenido
** ( ) Se ha consultado de manera informal a un pequeño número de expertos
*** ( ) Se ha consultado a un pequeño número de expertos mediante un procedimiento
sistematizado (N<10)
**** ( ) Se ha consultado a un número moderado de expertos mediante un procedimiento
sistematizado (10≤N≤30)
***** ( ) Se ha consultado a un amplio número de expertos mediante un un procedimiento
sistematizado (N>30)
2.10.2.4. Mediana de las correlaciones del test con otros tests similares:
( ) No se aporta información en la documentación
* ( ) Inadecuada (r<0.25)
** ( ) Adecuada pero con algunas carencias (0.25≤r<0.40)
*** ( ) Adecuada (0.40≤r<0.50)
**** ( ) Buena (0.50≤r<0.60)
***** ( ) Excelente (r≥0.60)
9
Las cifras acerca del tamaño de las muestras y de los estadísticos que aparecerán más adelante tienen un carácter orientativo.
10
Puede marcar más de una opción.
FOCAD
18 Formación Continuada a Distancia
2.10.2.5. Calidad de los tests empleados como criterio o marcador:
( ) No se aporta información en la documentación
* ( ) Inadecuada
** ( ) Adecuada pero con algunas carencias
*** ( ) Adecuada
**** ( ) Buena
***** ( ) Excelente
11
Puede marcar más de una opción.
FOCAD
Formación Continuada a Distancia
19
2.10.3.4. Mediana de las correlaciones del test con los criterios:
( ) No se aporta información en la documentación
* ( ) Inadecuada (r<0.20)
** ( ) Suficiente (0.20≤r<0.35)
***( ) Buena (0.35≤r<0.45)
**** ( ) Muy buena (0.45≤r<0.55)
***** ( ) Excelente (r≥0.55)
FOCAD
20 Formación Continuada a Distancia
2.11.4. Estabilidad (Test-Retest)
2.11.4.1. Tamaño de las muestras en los estudios de estabilidad12:
12
Número de sujetos con ambas puntuaciones (antes-después).
13
Si hay varios baremos, clasifique el tamaño promedio
FOCAD
Formación Continuada a Distancia
21
3. Valoración global del test
3.1. Con una extensión máxima de 1000 palabras, exprese su valoración del test, resaltando sus puntos fuertes y débi-
les, así como recomendaciones acerca de su uso en diversas áreas profesionales. Indique asimismo cuáles son las ca-
racterísticas de la prueba que podrían ser mejoradas, carencias de información en la documentación, etc.
Tabla 1
Descripción del test
Característica Descripción
Tabla 2
Valoración del test
FOCAD
22 Formación Continuada a Distancia