Los CAQDAS
Los CAQDAS
Los CAQDAS
En este artículo se pretende dar respuesta a ¿Qué son los CAQDAS? ¿Para qué sirven? ¿Cuáles son las
ventajas y desventajas de su uso en las investigaciones de carácter cualitativa?
Los CAQDAS son programas informáticos para el análisis cualitativo de datos. Para explicarlos nos hemos
basado en el texto de los profesores de la Universidad de Sevilla, F. J. Caro González y E. P. Díez de Castro:
“Investigación cualitativa asistida por ordenador en economía de la empresa” publicado en la Revista
de Investigaciones Europeas de Dirección y Economía de la Empresa, Vol. 11, Nº 2, 2005, pp. 45-58. Por el
título podría parecer que se va a explicar este tipo de software en el campo de las organizaciones
empresariales, sin embargo el texto de Caro González y Díez de Castro nos permite hacernos una idea
bastante clara sobre los CAQDAS y su aplicación en la investigación de carácter cualitativa,
independientemente de las disciplina de la que se trate. Precisamente, lo que se ha hecho es escoger y
reproducir de este texto, con algunas modificaciones, el contenido principal sobre los CAQDAS que se
considera universal para la investigación y el análisis cualitativo en cualquier ámbito del conocimiento
científico: sociología, antropología, pedagogía, economía, etc.
Índice
Existen tres tipos básicos de software para el análisis de datos cualitativos: los recuperadores de texto, los
paquetes codificadores y recuperadores y los que permiten la construcción teórica (Fielding y Lee, 1998).
Estos programas se han venido desarrollando desde mediados de los años 80, y se han aplicado sobre todo
en sociología, pedagogía, antropología y psicología, que son las disciplinas que han realizado más
habitualmente estudios de carácter cualitativo. Si tomamos como referencia el campo de la Sociología, Valles
(2001) expone cómo el análisis de datos cualitativos asistido por ordenador carece de referencias en nuestro
país hasta el Congreso Español de Sociología, celebrado en el año 1995 en Granada, y estas referencias
tratan de aplicaciones informáticas para el análisis estadístico de textos o el análisis de contenido. En 1998 en
el VI Congreso Español de Sociología se presentan por primera vez trabajos realizados con software
específico para estas tareas, en concreto se hace referencia a ATLAS.ti.
1. Fase Preparatoria
En esta fase es mínima la influencia del software elegido, en tanto que estos programas son tan sólo una
herramienta. Lo primero que debe hacer el investigador es diseñar el estudio a realizar, determinar los
objetivos de la investigación y la metodología más adecuada para alcanzarlos. Una vez aclarados estos
puntos, es cuando, si la metodología y el tipo de datos lo requieren, el investigador decidirá si va a realizar un
análisis tradicional o bien va a ser “asistido” por la informática. La investigación se plantea como un proceso
en el que relacionar categorías teóricas existentes con otras descubiertas a lo largo de la investigación. A
partir de esas relaciones se genera un modelo sobre el proceso y el contenido del cambio.
2. Trabajo de campo
El investigador tampoco va a encontrar en esta fase una gran ayuda en el software específico. La recogida de
la información hay que realizarla de acuerdo a los requerimientos de la estrategia de investigación. Sin
embargo, hay dos aspectos que es interesante tener en cuenta. Primero, que la mayoría de los programas
permiten trabajar con documentos de diferente naturaleza (texto, imagen y sonido), además de disponer de
funciones que favorecen la integración con datos de tipo cuantitativo. Al incrementarse la variedad de fuentes
de información la riqueza de los análisis es mucho mayor. Segundo, que la mayoría de los programas exigen
un formato determinado en los documentos con los que van a trabajar, es decir, es necesario “preparar” los
documentos para adecuarlos a los requisitos del programa. Si bien no es una tarea excesivamente engorrosa
es importante recordar este aspecto para no encontrar problemas en la fase de análisis de los datos.
3. Fase Analítica
En esta fase de la investigación es donde los recursos de estos programas contribuyen más directamente al
desarrollo de la investigación. Siguiendo las fases del proceso de análisis de datos cualitativos descritas por
Miles y Huberman (1994): reducción de datos, disposición y transformación de datos y obtención y verificación
de conclusiones.
También puede hacerse una “codificación abierta”, que consiste en establecer nuevos códigos que son
sugeridos por los propios datos durante el proceso de análisis.
Otra herramienta que incorporan algunos de estos programas es la de auto-codificación, proceso mediante el
cual el investigador puede asignar un código determinado, de forma automática y prácticamente instantánea,
a párrafos, frases o palabras de los documentos que contengan determinados vocablos o expresiones.
La mayoría de los programas permiten estructurar los códigos jerárquicamente y establecer supercódigos que
agrupen a varios de ellos. El proceso de codificación es muy flexible y durante el proceso resulta muy sencillo
modificar alguno de los códigos de forma inmediata en todos los documentos. También pueden fusionarse
dos o más códigos con lo que el programa asignará a cada una de las citas correspondientes a diversos
códigos a uno solo.
Una función muy útil es la de anotación (“memoing”). Los “memos” son notas que, en todo momento, tiene a
su disposición el investigador, donde puede indicar explicaciones, sugerencias, definiciones, o ideas que le
surgen durante el proceso de análisis de datos. Mediante esta herramienta se pueden añadir explicaciones a
cada una de las acciones que vamos desarrollando en el proceso de análisis. Por ejemplo, podemos adjuntar
una nota definiendo cada uno de los códigos, de forma que en todo momento, y ante cualquier duda, se
pueda acceder al concepto al que se refiere. Estas “notas” pueden ser asignadas a códigos, a citas, a
documentos, a relaciones, a fragmentos de texto, etc.
Algunos de los programas facilitan al investigador la elaboración de redes entre los nodos (códigos, memos,
documentos, relaciones, etc.) de manera que se puedan visualizar de forma gráfica las relaciones
encontradas por el analista. Hay que advertir que las relaciones las realiza el propio investigador, es decir,
funciona casi como un programa de diseño de gráfico con la ventaja de que se tienen a mano todos los
elementos que se quieren relacionar y toda la información (mediante relaciones de hipertexto) de los mismos.
También se pueden elaborar tablas de frecuencias o tablas con códigos y citas muy útiles para el desarrollo
del método de comparación constante (MCC). Algunos de los outputs numéricos de estos programas, como
por ejemplo las tablas de frecuencias, pueden ser fácilmente exportados para su tratamiento con paquetes
estadísticos.
Con el empleo de estos programas la recuperación de códigos y textos es muy rápida, prácticamente
instantánea. Además, permiten realizar búsquedas booleanas entre los códigos y establecer filtros sobre los
documentos en los que queremos buscar. Los filtros son muy útiles porque permiten hacer búsquedas
selectivas en los documentos primarios para poder encontrar diferencias significativas entre distintas
categorías de informantes o entre casos con semejanzas. Estas búsquedas selectivas contribuyen a la
comparación de fuentes informativas.
También se pueden hacer búsquedas de proximidad entre códigos o textos; por ejemplo, podemos solicitar al
programa que nos seleccione aquellos fragmentos de texto donde tal código va seguido (o precedido, o se
solapa, o contiene, etc.) por tal otro en un espacio de texto determinado.
Otro tipo de operadores que se pueden encontrar en algunos de los programas son los semánticos, cuando
existen categorías y subcategorías. Nos facilitan el acceso a las citas codificadas con A o subcategorías de A,
con A o supracategorías de A, etc.
4. Fase Informativa
En la elaboración de informes estos programas contribuyen en tanto que facilitan la extracción de la
información según los criterios que fije el investigador. Podemos, por ejemplo, obtener como resultado en un
documento de texto, todas las citas que hacen referencia a una familia de códigos, o a un código concreto, y
luego manipularlos para hacer más atractiva su presentación en los programas que habitualmente utilice el
investigador para elaborar los informes. Los documentos que se obtienen como resultados (tablas de
frecuencias, árbol de códigos, redes, citas, etc.) son fácilmente exportables a otros programas informáticos
con los que estamos más habituados a trabajar.
Esta enumeración de funciones no es exhaustiva, y no todos los programas pueden realizar todas ellas,
aunque la mayoría de ellos incluso ofrecen más posibilidades. Evidentemente todo esto puede ser realizado
de forma manual, o asistido por un procesador de texto normal.
6. Intersubjetividad interna. Los nuevos programas permiten que varios investigadores trabajen sobre
un mismo proyecto al mismo tiempo, y que podamos identificar en todo momento quién aporta qué
en el proceso de análisis. Esto es lo que Valles (2001) denomina intersubjetividad interna. Se pueden
transferir archivos entre analistas y observar las aportaciones de cada uno. Esta característica es
particularmente interesante en el caso de grupos de trabajo multidisciplinares y cuando los
investigadores se encuentran en distintos centros de trabajo e incluso en diferentes países.
7. Intersubjetividad externa (Valles, 2001) ligada a la posibilidad de falseabilidad de una investigación.
Una de las principales críticas que se le hace a la investigación cualitativa es la escasa información
acerca de cómo los analistas han obtenido las conclusiones, la falta de transparencia y el tratamiento
“anecdótico” de los datos. El uso de los ordenadores favorece la sistematización de este proceso y
deja rastros de los pasos seguidos por los investigadores. Esto supone que hasta cierto punto se
puede hacer una réplica del análisis por investigadores independientes. Esta posibilidad de
falseabilidad no puede ser completa, en tanto que existe un elevado grado de subjetividad en los
estudios cualitativos, en todas y cada una de sus fases.
8. Datos secundarios. Otra ventaja es la posibilidad de trabajar con datos secundarios procedentes de
otras investigaciones cualitativas, tanto para facilitar estudios longitudinales y comparativos, como el
aprendizaje de los métodos cualitativos.
9. Modelización y visualización analítica. Otra de las ventajas que aportan los programas de análisis
de datos cualitativos es la de elaborar redes y diagramas. Estas herramientas ayudan al investigador
la tarea de integrar las categorías y generar modelos teóricos. También sirven para visualizar
gráficamente las relaciones que van apareciendo entre los códigos. Disponer de esta herramienta en
el mismo software en el que se realizan todas las operaciones tiene importantes ventajas, ya que los
gráficos creados están accesibles de forma inmediata en el mismo entorno en el que se analizan los
datos y se pueden ir añadiendo o modificando las relaciones de forma gráfica durante todo el periodo
de análisis. Al mismo tiempo se pueden asignar “notas” a las relaciones o redes explicando el porqué
de cada una de ellas. Muchos investigadores utilizan otros programas informáticos más específicos
para la elaboración de redes o gráficos como pueden ser Decision Explorer, Power Point, o Ucinet.
10. Exportación de datos. Los archivos son fácilmente exportables a otros programas. Las tablas de
frecuencia, los informes que se elaboran pueden ser exportados a otros programas como Excel,
SPSS, Word o Power Point con facilidad.
A pesar de las ventajas anteriormente señaladas, muchos investigadores se resisten al uso de los CAQDAS
en las investigaciones cualitativas. Existen dos grandes grupos de inconvenientes/razones: los
epistemológicos y los operativos.
1. Problemas epistemológicos
1. Los programas específicos para el análisis de datos cualitativos son relativamente recientes. Los
primeros desarrollos son de la década de los 80.
2. El uso de un software específico representa una sistematización que no todos los investigadores
asumen en el proceso de análisis. El componente creativo, artístico que está presente en menor o
mayor grado, en el proceso de análisis cualitativo, parece poco compatible con la utilización de
métodos de procesamiento ordenado de los datos. Esta sistematización puede suponer un riesgo
para los investigadores noveles que simplifiquen el proceso de análisis cualitativo siguiendo de forma
lineal el procedimiento que marca el software específico.
3. Algunos autores han advertido que el empleo mecánico de los programas informáticos puede
producir un proceso de homogenización del análisis cualitativo.
4. Respecto a la exploración de relaciones entre categorías, hay que destacar que los programas no
disponen de criterios de decisión para determinar si realmente existe una relación entre dos códigos
que aparecen secuenciados, próximos o solapados. El ordenador es solo una herramienta y no un
experto. El conocimiento reside en el investigador, y el éxito de una investigación vendrá
determinado por el planteamiento adecuado, la competencia y capacidad de raciocinio del
investigador.
5. Los investigadores que han utilizado los ordenadores pueden verse tentados de utilizarlos para
realizar actividades inapropiadas para el objetivo de la investigación, que no aportan nada o la
confunden. Como dice Tesch (1990) “el análisis puede tomar un determinado camino porque el
ordenador favorece ese camino”. Como resultado el ordenador puede invadir el territorio conceptual
del investigador o influir en una determinada dirección todo el proceso (Valles, 2001).
6. Las posibilidades de realizar cálculos numéricos con datos cualitativos que ofrecen estos programas
pueden suponer para algunos investigadores una invitación para cuantificar los datos, alejándolos de
la riqueza del estudio cualitativo.
2. Problemas operativos
1. Necesidad de un aprendizaje. Se requiere un esfuerzo de aprendizaje del software por parte del
analista.
2. Coste y difusión. Es necesario adquirir el software, y aunque el precio no es elevado para las
prestaciones que ofrece es preciso pagar un precio por él. A este factor hay que añadir problemas de
comercialización, ya que la mayoría de estos programas han sido diseñados por investigadores y son
distribuidos por ellos mismos. Esto dificulta su difusión, la mejor forma de adquirirlos es a través de
Internet.
3. Los programas y los manuales que explican su funcionamiento, por regla general, no están
traducidos al español, lo que dificulta su uso generalizado.
4. Es necesario preparar los documentos en un formato determinado para su tratamiento, lo que implica
que resulta difícil modificar esos documentos una vez incluidos en el proceso de análisis. Este
problema se está intentando resolver en las nuevas versiones de los CAQDAS para poder procesar y
modificar con facilidad documentos con distintos formatos.
5. Otro problema es el intercambio de datos de un software especializado a otro (por ejemplo poder
utilizar documentos primarios de Atlas.ti en Max Qda), o de una versión de un programa a otra. Este
aspecto es muy interesante para estudios longitudinales o para el caso de estudios que emplean
software distinto. Esa posibilidad de traslación de archivos facilitaría la comparación de programas y
obtención de resultados más fiables al poder utilizar diferentes herramientas y combinar las ventajas
de cada uno de ellos. En las últimas versiones de algunos CAQDAS se está desarrollando el formato
XML, que pretende ser un formato de datos estándar que permite el trasvase de la información.
6. Otro inconveniente que limita el uso de la metodología cualitativa y los programas específicos para
ello es el tiempo y el coste que conlleva la transcripción de las entrevistas para su análisis. En el
futuro confiamos que los ordenadores sean capaces de reconocer la voz humana con fiabilidad y
transcribirla directamente desde un archivo audio a uno de texto.
Bibliografía
CARO GONZÁLEZ, F.J.; DÍEZ DE CASTRO, E.P. (2005). “Investigación cualitativa asistida por ordenador en
economía de la empresa” en: Revista de Investigaciones Europeas de Dirección y Economía de la
Empresa, Vol. 11, Nº 2, 2005, pp. 45-58.
FIELDING, Nigel. G.; LEE, Raymond M. (1998). Computer Analysis and Qualitative Research. SAGE.
GLASER, B.; STRAUSS, A. (1967): The discovery of grounded theory: Strategies for qualitative research,
Wiedenfeld and Nicholson, London.
MILES, M.; HUBERMAN, AM. (1994): Qualitative Data Analysis. 2ª Ed. Beverly Hills. Sage.
VALLES, M.S. (2001): “Ventajas y desafíos del uso de programas informáticos (e.g. ATLAS.ti y MAXqda) en
el análisis cualitativo. Una reflexión metodológica desde la grounded theory y el contexto de la investigación
social española”. Ponencia en el Seminario sobre Investigación Avanzada Cualitativa Asistida por Ordenador,
Granada, noviembre.