Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

1 Pdfsam LibroATICA2013

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 281

V Congreso Internacional

sobre Aplicación de
Tecnologías de la
Información y
Comunicaciones Avanzadas

Miguel Ángel Córdova Solís


Luis Bengochea Martínez
(Editores)
2%5$6&2/(&7,9$6
7(&12/2*Ë$
Actas del
V Congreso Internacional sobre
Aplicación de Tecnologías de la Infor-
mación y Comunicaciones Avanzadas
(ATICA 2013)

Universidad Continental (Perú)


2 - 4 de octubre de 2013




(GLWRUHV

0LJXHOÈQJHO&yUGRYD6ROtV
8QLYHUVLGDG&RQWLQHQWDO3HU~ 

/XLV%HQJRFKHD0DUWtQH]
8QLYHUVLGDGGH$OFDOi(VSDxD 
Las Actas del V Congreso Internacional sobre Aplicación de Tecnologías
de la Información y Comunicaciones Avanzadas (ATICA 2013), editadas por Miguel
Ángel Córdova Solís y Luis Bengochea Martínez, se publican bajo licencia Creative
Commons Perú 2.5 de reconocimiento - no comercial – compartir bajo la misma licencia.

Se permite su copia, distribución y comunicación pública, siempre que se mantenga el


reconocimiento de la obra y no se haga uso comercial de ella. Si se transforma o genera
una obra derivada, sólo se puede distribuir con licencia idéntica a ésta. Alguna de estas
condiciones puede no aplicarse, si se obtiene el permiso del titular de los derechos de
autor.

De esta edición digital:


© Universidad Continental 2013
Av. San Carlos 1980 - Huancayo
Teléfono: (064) 481430
e-mail: webmaster@continental.edu.pe

ISBN: 978-612-4196-16-4

Oficina de Producción de Contenidos y Recursos


http://www.universidad.continental.edu.pe/virtual/
Fondo Editorial de la Universidad Continental

Todos los derechos reservados.


Fotografía de la portada: Sun Over Earth's Horizon (License Attribution).

Esta publicación es el resultado del congreso organizado en el marco del proyecto


“ESVIAL: Educación superior virtual inclusiva - América Latina: mejora de la accesibili-
dad en la educación superior virtual en América Latina", financiado por la Unión Euro-
pea con contrato
DCI-ALA/19.09.01/11/21526/279-146/ALFAIII(2011)11.

Los contenidos de esta obra son responsabilidad exclusiva de sus autores y no reflejan
necesariamente la opinión oficial de la Comisión Europea.
Organización del Congreso
El congreso está organizado por dos universidades:

Universidad Continental (Perú)


La Universidad Continental nace del sueño de dos jóvenes que emprendie-
ron la marcha de un proyecto educativo en 1985, desde su nacimiento
plasmaron en cada uno de sus proyectos un sello característico de calidad:
el buen servicio y pasión en cada emprendimiento y sobre todo en cada in-
tegrante de esta gran familia. Hoy somos parte de una sólida corporación
integrada por el Instituto, la Universidad y la Escuela de Postgrado, conta-
mos con sedes en Lima, Huancayo, Arequipa, Trujillo y con presencia a
nivel nacional. [www.universidad.continental.edu.pe]

Universidad de Alcalá (España)


Institución fundada en 1499 que presta el servicio público de la educación
superior a través de la docencia y de la investigación, que dispone de un
Campus Virtual en el que se imparten enseñanzas virtuales oficiales (gra-
dos, másteres y doctorados) y propias (títulos propios de formación conti-
nua, de experto y de máster). [www.uah.es]
Colaboradores
Proyecto ESVI-AL (Alfa III) Virtual Educa

Departamento de Ciencias de la Compu- Fundación General de la Universidad de Alcalá


tación - UAH (España) (España)

Universidad Galileo (Guatemala) Universidad Nacional de Asunción (Paraguay)

Fundación Universitaria Católica del Norte Universidad Politécnica de El Salvador


(Colombia)

Universidad Técnica Particular de Loja Universidad de la República de Uruguay


(Ecuador)

Helsinki Metropolia University of Applied Universidade de Liboa (Portugal)


Sciences (Finlandia)

Organización Mundial de Personas con Asociación Internacional de Seguridad Social


Discapacidad
Comité de Honor

Presidente:

Esaú Caro Meza, Rector de la Universidad Continental, PERÚ

Miembros:

Fernando Galván Reula, Rector de la Universidad de Alcalá, ESPAÑA


Eduardo Suger Cofiño, Rector de la Universidad Galileo, GUATEMALA
António Sampaio da Nóvoa, Rector de la Universidade de Lisboa,
PORTUGAL
Rodrigo Arocena, Rector de la Universidad de la República de Uruguay,
URUGUAY
Roberto López Meyer, Rector de la Universidad Politécnica de El Salva-
dor, EL SALVADOR
Pedro González, Rector de la Universidad Nacional de Asunción,
PARAGUAY
Francisco Luis Ángel Franco, Rector de la Fundación Universitaria Cató-
lica del Norte, COLOMBIA
José Barbosa Corbacho, Rector de la Universidad Técnica Particular de
Loja, ECUADOR
Riitta Konkola, Rector dela Helsinki Metropolia University of Applied Sci-
ences, FINLADIA
Dayana Martinez Burke, Presidenta Regional para Latinoamérica de la
Organización Mundial de Personas con Discapacidad
Hans-Horst Konkolewsky, Secretario General de la. Asociación Interna-
cional de Seguridad Social
José María Antón Jornet, Presidente de Virtual Educa
Volmir Raimondi, Presidente de la Unión Latinoamericana de Ciegos
Comité Organizador

Presidentes:

Emma Barrios Ipenza, Universidad Continental (Perú)


Luis Bengochea Martínez, Universidad de Alcalá (España)

Miembros:

Ana María Privado Rivera, Universidad de Alcalá


Belén Ocaña, Fundación General UAH
Blanca Menéndez Olías, Universidad de Alcalá
Diana Chipana Gago, Universidad Continental (Perú)
Gabriela Jurado, Universidad Continental (Perú)
Guillermo de Alarcón, Universidad de Alcalá
Hipólito Rodríguez Casavilca, Universidad Continental (Perú)
Katia Melina Montero Barrionuevo, Universidad Continental (Perú)
María García Francisco, Fundación General UAH
Miguel Ángel Córdova Solís, Universidad Continental (Perú)
Miguel Túpac Yupanqui, Universidad Continental (Perú)
Rocío Gladys Matos Barzola, Universidad Continental (Perú)
Yanina Rosales Córdova, Universidad Continental (Perú)
Yuri Márquez Solís, Universidad Continental (Perú)
Comité Científico

Presidentes:

Salvador Otón Tortosa, Universidad de Alcalá (España) - Co-presidente


Ricardo Salcedo, Universidad Continental (Perú) - Co-presidente
Miguel Ángel Córdova Solís, Universidad Continental (Perú) - Co-
presidente

Miembros:

Alfonso Vicente, Universidad de la República de Uruguay


Alfredo Villaverde, Universidad de la República de Uruguay
Antonio García Cabot, Universidad de Alcalá (España)
Antonio Miñan Espigares, Universidad Nacional de Asunción (Paraguay)
Antonio Moreira Teixeira, Universidade de Lisboa (Portugal)
Belén Meza, Universidad Nacional de Asunción (Paraguay)
Carmen Cano Pérez, Universidad de Alcalá (España)
Carmen Delia Varela Báez, Universidad Nacional de Asunción (Paraguay)
Carmen Pagés Arévalo, Universidad de Alcalá (España)
Carol Roxana Rojas Moreno, Universidad Continental (Perú)
Carlos Calderón Sedano, Universidad Continental (Perú)
Concha Batanero Ochaíta, Universidad de Alcalá (España)
Covadonga Rodrigo San Juan, Universidad Nacional de Educación a Dis-
tancia (UNED), (España)
Daniel Gamarra Moreno, Universidad Continental (Perú)
Dayana Martinez Burke, Organización Mundial de Personas con Discapa-
cidad
Diana Torres, Universidad Técnica Particular de Loja (Ecuador)
Edmundo Tovar, Universidad Técnica Particular de Loja (Ecuador)
Elisabeth Cadme, Universidad Técnica Particular de Loja (Ecuador)
Eva García López, Universidad de Alcalá (España)
Felix Andrés Restrepo Bustamante, Fundación Universitaria Católica del
Norte (Colombia)
Gabriela Jurado Chamorro, Universidad Continental (Perú)
Héctor Amado, Universidad Galileo (Guatemala)
Isabel Cano Ruiz, Universidad de Alcalá (España)
Janet Chicaiza, Universidad Técnica Particular de Loja (Ecuador)
Jaquelin Guzmán, Universidad de la República de Uruguay
Jorge López, Universidad Técnica Particular de Loja (Ecuador)
Jorge Eduardo Marmolejo Aguirre, Universidad Continental (Perú)
José Amelio Medina Merodio, Universidad de Alcalá (España)
José Antonio Gutiérrez de Mesa, Universidad de Alcalá (España)
José Javier Martínez Herraiz, Universidad de Alcalá (España)
José Luis Castillo Sequera, Universidad Nacional de Ingeniería (Perú)
José María Antón Jornet, Virtual Educa (Internacional)
José María Gutiérrez Martínez, Universidad de Alcalá (España)
José Ramón Hilera González, Universidad de Alcalá (España)
Juliana Calderón, Fundación Universitaria Católica del Norte (Colombia)
Katia Montero Barrionuevo, Universidad Continental (Perú)
Lourdes Jiménez Rodríguez , Universidad de Alcalá (España)
Lourdes Moreno, Universidad Carlos III (España)
Luciana Canuti, Universidad de la República de Uruguay
Luis Bengochea Martínez, Universidad de Alcalá (España)
Luis De Marcos Ortega, Universidad de Alcalá (España)
Luis Fernández Sanz, Universidad de Alcalá (España)
Mª Carmen Gómez, Virtual Educa (Internacional)
Mª Teres Villalba de Benito, Universidad de Alcalá (España)
María Gabriela Camborda Zamudio , Universidad Continental (Perú)
María Isabel Farias, Organización Mundial de Personas con Discapacidad
(Internacional)
Marco Herrera Puga, Universidad Contiental (Perú)
Markku Karhu, Helsinki Metropolia University of Applied Sciences (Fin-
landia)
Miguel Cárdenas Agreda, Universidad Continental (Perú)
Miguel Morales, Universidad Galileo (Guatemala)
Miguel Túpac Yupanqui, Universidad Continental (Perú)
Mónica de la Roca, Universidad Galileo (Guatemala)
Nelson Oswaldo Piedra Pullaguari, Universidad Técnica Particular de Lo-
ja (Ecuador)
Oscar de Jesus Aguila, Universidad Politécnica de El Salvador
Oscar Martinez, Universidad Técnica Particular de Loja (Ecuador)
Paola Premuda, Universidad de la República de Uruguay
Paula Andrea Laborda, Fundación Universitaria Católica del Norte (Co-
lombia)
Raúl Julian Ruggia Frick, Asociación Internacional de Seguridad Social
(Internacional)
Regina María Motz Carrano, Universidad de la República de Uruguay
Roberto Antonio Argueta Quan, Universidad Politécnica de El Salvador
Roberto Barchino Plata, Universidad de Alcalá (España)
Roberto Beltrán, Universidad Técnica Particular de Loja (Ecuador)
Rocael Hernandez Rizzardini, Universidad Galileo (Guatemala)
Yolanda Patricia Preciado, Universidad Católica del Norte (UCN)
Yuri Márquez Solís, Universidad Continental (Perú)
Sylvana Temesio, Universidad de la República de Uruguay
Virginia Rodés, Universidad de la República de Uruguay
Wilfredo Guzman, Organización Mundial de Personas con Discapacidad
(Internacional)
Prólogo

La Universidad Continental de Perú acoge, este año 2013, al V Congreso Interna-


cional de Aplicación de Tecnologías de la Información y Comunicaciones Avanzadas–
ATICA-, que se realiza tanto en la ciudad de Lima como en la de Huancayo, capital
del departamento de Junín, y sede principal de la Universidad.
Una vez más, este Congreso es posible en el marco del Proyecto ESVI-AL (Educa-
ción Superior Virtual Inclusiva – América Latina), financiado por el programa ALFA
III de la Unión Europea, que tiene el objetivo de mejorar la accesibilidad en la educa-
ción superior virtual.
El Proyecto ESVI-AL busca lograr dicho objetivo a través de la creación y la im-
plantación de metodologías que establezcan un modelo de trabajo para el cumplimien-
to de requisitos y estándares de accesibilidad en el contexto de la educación virtual.
Además, trabaja para crear una comunidad y una red de instituciones de educación
superior que fomenten relaciones duraderas entre América Latina y la Unión Europea
en una cultura de la calidad y de la accesibilidad.
Se busca garantizar la accesibilidad de la formación virtual en las instituciones de
educación superior, es decir, la condición que deben cumplir los entornos, los produc-
tos y los servicios de formación virtual de tal manera que todas las personas puedan
comprenderlos y utilizarlos para su desarrollo personal y profesional.
Esta comunidad universitaria prioriza el desarrollo de una educación superior que
considere las necesidades sociales, de sostenibilidad y de empleabilidad de las personas
cuyos entornos sociales, económicos, tecnológicos, arquitectónicos, etc. les impiden
un acceso igualitario a la formación y al desarrollo pleno y armónico de todas sus ca-
pacidades; y busca aplicar las nuevas tecnologías como herramientas que pueden acele-
rar, principalmente a través de internet, la superación de dichas barreras. Con este fin
se plantea un especial interés por la verificación de los indicadores de la mejora de la
accesibilidad en la educación superior.
En el proyecto ESVI-AL participan diez socios y cuatro entidades colaboradoras in-
ternacionales. Tres socios son europeos, de España, Portugal y Finlandia: la Universi-
dad de Alcalá (UAH), la Universidade de Lisboa (ULI), y la Helsinki Metropolia Uni-
versity of Applied Sciences (UMET). Los otros siete corresponden a países latinoame-
ricanos: la Fundación Universitaria Católica del Norte (UCN), de Colombia; la Univer-
sidad Técnica Particular de Loja (UTPL), del Ecuador; la Universidad Politécnica de
El Salvador (UPES); la Universidad Galileo (UGAL), de Guatemala; la Universidad
Nacional de Asunción (UNA), de Paraguay; la Universidad de la República (URU),
del Uruguay; y la Universidad Continental (UC), del Perú. Además, participan las
siguientes entidades colaboradoras internacionales: la Organización Mundial de Perso-
nas con Discapacidad (OMPD), la Unión Latinoamericana de Ciegos (ULAC), la Aso-
ciación Internacional de Seguridad Social (AISS), y Virtual Educa (VE).
La presente publicación recoge los artículos del II Taller sobre TICs y Accesibili-
dad, y las ponencias del V Congreso Internacional ATICA. En el taller se ofrece una
visión general acerca de la situación actual de la accesibilidad en las plataformas virtua-
les de las instituciones educativas. Como parte de este encuentro, se desarrolla el taller
“Hacia un Campus Virtual Accesible ESVI-AL” en el marco del taller ATICAccess
que busca brindar los conocimientos básicos de auditoría de la inclusión a los adminis-
tradores de campus virtuales.
En el taller, también se han presentado trabajos sobre la Guía ESVI-AL, (una guía
metodológica para la implantación de los desarrollos curriculares virtuales accesibles),
proyectos educativos accesibles, la inclusión de personas con discapacidad visual, el
reconocimiento de la voz, la sensibilización de contenidos accesibles para personas con
discapacidad sensorial, el rol de los videotutoriales accesibles en el aprendizaje del
futuro, los dispositivos de tecnología adaptada para estudiantes con discapacidad,
entre otros.
El V Congreso Internacional ATICA es un importante foro abierto que reúne a in-
vestigadores, docentes, ingenieros de sistemas e informática, y estudiantes, con el
propósito de compartir experiencias, generar alianzas, fomentar la investigación, y
desarrollar ideas y tendencias acerca de la aplicación de las tecnologías de la informa-
ción y la comunicación al servicio de la comunidad, de manera que se asegure la inclu-
sión de todos los miembros de la sociedad.
En el congreso de este año, especialistas argentinos, brasileños, dominicanos, ecua-
torianos, españoles, finlandeses, guatemaltecos, mexicanos, paraguayos, uruguayos y
peruanos han presentado sus investigaciones recientes sobre cómo aplicar las tecnolo-
gías de la sociedad de la información a los contextos educativos, y cómo garantizar la
inclusión y la superación de cualquier barrera discriminatoria.
Las áreas de interés de ATICA 2013 principalmente se extienden a temas que
vinculan educación virtual, el derecho a la inclusión y las tecnologías de punta. Pode-
mos mencionar, como ejemplos de ello, las plataformas y herramientas de eLearning,
bLearning y mLearning; la gestión del conocimiento; la gestión de la calidad; la inge-
niería web; la ingeniería del software; los sistemas de información; las aplicaciones de
inteligencia artificial; la adaptación, la adaptabilidad y la accesibilidad; la realidad au-
mentada; las simulaciones; las nuevas competencias de los docentes y de los estudian-
tes; los resultados de aprendizaje; los recursos educativos abiertos; los laboratorios de
acceso remoto en la modalidad virtual; la gestión Informática; la seguridad en las re-
des; las aplicaciones de tecnologías de la web semántica y la web social; las redes so-
ciales; la gestión de contactos; el derecho a la privacidad y los aspectos legales del
procesamiento de la información; etc.
Con la difusión de estas investigaciones, esperamos colaborar en el desarrollo de
una educación superior virtual inclusiva y en la construcción de una sociedad que se
caracterice por la democratización y la accesibilidad del conocimiento, así como por la
búsqueda de la excelencia y la mejora continua.

Los Presidentes del Comité Organizador del Congreso ATICA 2013,

Emma Barrios Ipenza Luis Bengochea Martínez


Universidad Continental (Perú) Universidad de Alcalá (España)
Índice de Contenidos

Prólogo 9

Prólogo II Taller sobre TICs y Accesibilidad (ATICAcces)


Salvador Otón Tortosa y Miguel Ángel Córdova Solís 15

Primera parte: II Taller sobre TICs y Accesibilidad (ATICAcces)


Productos de un Proyecto Educativo Virtual Accesible sobre Innovación Do- 17
cente utilizando la Guía ESVIAL.
Carmen Varela y Antonio Miñán Espigares
Construcción de competencias y habilidades en computación y programación 26
para personas con discapacidad visual: Un enfoque de inclusión.
Francisco Sánchez Vásquez, Gerardo Contreras Vega, Carlos Alberto
Ochoa Rivera, Lizbeth Yesenia Contreras Rivas, Alma De Los Ángeles
Cruz Juárez, María Elena Díaz León y Yadira Izbeth Tapia Garrido
A Study on the Standards Related to Learning Objects. 34
Markku Karhu, Concha Batanero, Salvador Otón y José Ramón Hilera
Especificación ims access for all 3.0. 42
Salvador Otón, Concha Batanero, Jaime Alonso y Daniel Jiménez
Revisión Sistemática de las Soluciones Basadas en Tecnología Web Para el 50
Reconocimiento de Voz en Informes Clínicos.
Jesus Victorio Martin
Estándares y accesibilidad en el ciclo de creación de OERs mediante herra- 55
mientas de autor.
Francisco Iniesto y Covadonga Rodrigo
Ontología de sensibilización de contenidos accesibles para personas con disca- 63
pacidad sensorial en el Perú.
Jimmy Rosales, Fredy Campos, Victor Córdova y José Luis Castillo S.
Un enfoque hacia la calidad de la formación virtual en contenidos abiertos. 71
José-Antonio Gutiérrez-De-Mesa, Antonio García-Cabot, Eva García-
López, Javier Abraham-Curto y Maite Gutiérrez Elvar
El papel de los videotutoriales accesibles en el aprendizaje del futuro. 80
Luis Bengochea y Jose Amelio Medina Merodio
Criterios para la elección de dispositivos de tecnología adaptada para estu- 88
diantes con discapacidad..
Rosario Galarza.
Diseño de un Sistema Web Accesible de Educación Virtual. 93
José Oscar Gómez Caraballo.
Análisis de un caso de estudio de multi-evaluación de una página web según 99
WCAG 2.0.
David Sangilbert, Jose Ramón Hilera y Elena T. Vilar.

Segunda parte: Ponencias Generales del congreso ATICA


La imagen de la mujer deportista en el cine. Estudio de cuatro films. 109
María Muñoz-Vázquez y José Ignacio Aguaded-Gómez
Web de publicación de documentación económico-contable. 117
Silvia Muniesa
Análisis de requisitos de seguridad PCI DSS, SOX y LOPD, automatizables 125
en un firewall de base de datos.
Jesús Vázquez
Estudio de la plataforma Android y desarrollo de una aplicación Android de 133
gestión de lugares personales.
José Ignacio Sanz García
Android y Arduino enlazados mediante Bluetooth. 141
Ignacio Manosalvas González
Estereoscopía como tecnología de futuro. 149
Ricardo Jiménez, Hilario Gómez y Pilar Lacasa
La calidad del Software a través de sus métricas. 157
Ignacio González Díaz-Caneja
Modelos y estándares para la Interoperabilidad en los intercambios de infor- 165
mación entre sistemas de Seguridad Social.
Francisco Delgado Azuara
Las metodologías de desarrollo de Software. Propuesta de una guía para la 174
aplicación de la metodología Agile.
Eduardo Gómez, José Amelio Medina y Roberto Barchino
Implantación de un Sistema de Gestión de Calidad por Procesos EFQM en el 178
Decanato de la Facultad Regional Tucumán de la Universidad Tecnológica
Nacional, República Argentina.
Emmanuel F. López, José A. Medina, Walter F. Soria, Gustavo G. Maigua
y Roberto Barchino
Arquitetura Pedagógica de um Programa de Extensão EaD. 183
Daniela Bagatini, Charles Airton Bernardini y Rudimar Serpa de Abreu
Influencia del feedback dinámico en clases presenciales, mediante dispositivos 191
móviles.
Francisco Javier Mourín Moral
Estado del Arte sobre Estudio de los Cambios en la Descripción de Recursos 196
Publicados en las Redes Sociales Aplicación en Twitter.
Gabriela Agila y Jorge López
Mejora del proceso de producción mediante el desarrollo e implementación de 204
un Interface Hombre Máquina.
Ismael Calvo, José A. Medina, Carmen De Pablos y Luis Bengochea
Curso Superior de Tecnologia em Banco de Dados na modalidade de Edu- 210
cação a Distância: Reflexões acerca da Formação Docente.
Joice Lanzarini, Felipe Gustsack, Schreiber Jacques y Viviane Alves
Análisis de redes sociales aplicados a un RDF Store. 218
Pricila Quichimbo y Jorge López
Redes Neuronales Artificiales en la toma de decisiones para la elección de una 226
carrera universitaria en los estudiantes de quinto año de secundaria en el Co-
legio José Carlos Mariátegui de la ciudad de Huancayo.
Miguel Ángel Córdova Solís, Jheyson Cavero Gómez, Jackeline Limay-
manta Aguilar y Jhim Mucha Condori
Red Neuronal Artificial para el pronóstico de precipitaciones según el tipo de 234
nubes en Huancayo.
Miguel Angel Córdova Solís, Dennis Rafael Collazos Cuyubamba, José
Luis Camarena Maita y Diego Baquerizo
Sistema experto para el diagnóstico de fallas de un teléfono móvil. 244
Miguel Ángel Córdova Solís, Jhon Hosber Pari Ponce y Jacinto Ricardo
Huamancusi Ccencho
Detección de spam basado en redes neuronales. 249
Miguel Ángel Córdova Solís, Jhimmy Carlos Gago Cueva y Jimmy Franz
Paredes Zúñiga
Diseño de páginas Web con Wordpress. 260
Silvia Díaz Fernández
Sistema de Realidad Aumentada en la mejora del Logro de Capacidades Cog- 266
nitivas en Estudiantes del Segundo Grado de la Institución Educativa Nues-
tra Señora del Carmen del Distrito de Jauja.
José Albert Loya Nuñez y Miguel Ángel Córdova Solís
Sistema experto para el diagnóstico de trastornos depresivos según el tipo de 275
síntoma en pacientes del Hospital Daniel Alcides Carrión de la Ciudad de
Huancayo.
Fanny Castillo Peñares, Miguel Ángel Córdova Solís y José Tapia Poves
Gestión y administración de objetos SCORM mediante servicios web REST- 290
ful.
Jorge Pozuelo y Salvador Otón
Video clases: tecnología de interconectividad síncrono en la Universidad 298
Continental modalidad virtual.
Jhovanny Luis Beraún Ramos y Miguel Ángel Córdova Solís
Aplicación de la gamificación en el contexto educativo. 303
Yahaira De Jesús Fernández Segura
Análisis de la accesibilidad del portal OpenScout para la búsqueda, etiqueta- 311
ción y difusión de OERs en redes sociales.
Francisco Iniesto y Covadonga Rodrigo
Backend para aplicación móvil de mensajería instantánea. 319
Daniel Muñoz Gil
Aplicación de gestión de contactos con Android y Google App Engine. 327
Adolfo Domínguez
Desarrollo experimental de un laboratorio de acceso remoto para carreras 335
universitarias en la modalidad virtual.
Hipólito M. Rodríguez Casavilca, Manuel A. Alcántara Vásquez y
Máximo M. Ramos Medina
Clasificación De Open Course Ware Aplicando Conceptos De Análisis De 344
Redes Sociales.
Diego Armando Guevara y Jorge Lopéz
Software de código abierto para la publicación académica científica. 356
Wilfredo Bulege-Gutiérrez
Diseño e implementación de un Sistema de Gestión Es-colar que permita el 361
Control y Gestión de los procesos Académicos y Administrativos de Institu-
ciones Educativas atraves de internet y dispositivos móviles.
Yamil Buenaño Palacios
Estudio de Google Maps V2 para dispositivos móviles Android. 371
Alberto Hernández Akkari
Desarrollo de una herramienta Web de monitorización del aprendizaje del 379
estudiante.
Héctor Yago Corral y Julia Clemente Párraga
Modelo de Sistema de Gestión de Información. 386
Marcela Sirley Cuestas Gomez
Metodología de Implantación de Modelo de Gestión del Conocimiento y Es- 394
trategia Empresarial para las PYMEs en TI .
Nancy Judith Cruz Hinojosa
Aseguramiento de la Calidad a través del Sistema de Garantía Interna de Cali- 402
dad en la Educación Virtual
Diana Paola Chipana Gago
II Taller sobre Tecnologías de la Información y
Comunicaciones y Accesibilidad (ATICAcces)

Miguel Córdova1, Salvador Otón2


1
Universidad Continental
Huancayo, Perú
mcordova@continental.edu.pe
2
Universidad de Alcalá
Alcalá de Henares, España
salvador.oton@uah.es

La accesibilidad es la cualidad que tienen los entornos, productos y/o servicios de ser
usados o conocidos sin que las limitaciones que un usuario pueda tener supongan una
barrera. Las tecnologías de la información y las comunicaciones (TICs) ofrecen
herramientas y medios que pueden garantizar las condiciones básicas de accesibilidad
y no discriminación para el acceso y utilización de las tecnologías, productos y
servicios relacionados con la sociedad de la información.

La mayoría de las instituciones de educación superior en América Latina deberían


mejorar la accesibilidad web de sus portales, servicios web o plataformas, el congreso
ATICA, evento académico en el marco del proyecto ESVI-AL, tiene como propósito
la aplicación y uso efectivo de las tecnologías de la información al servicio de la
sociedad y de la inclusión social para todos.

En este contexto, se presenta la segunda edición del taller ATICAcces, integrado en el


congreso ATICA’2013, en el que se trata de ofrecer una visión general sobre la
situación actual de la accesibilidad en relación con las Tecnologías de la Información
y las Comunicaciones (TICs).

El taller comprende tres actividades, las cuales están orientadas a la accesibilidad:

x En la primera de ella, se incluyen artículos relacionados con la aplicación de


las TICs accesibles en el ámbito de la formación virtual inclusiva, es
necesario resaltar que una de las líneas de interés del congreso fue la
adaptación, adaptabilidad y accesibilidad y además de otros trabajos que se
aplican en mejorar la accesibilidad tecnológica.
x La segunda actividad del taller, comprende el desarrollo del taller presencial
“Hacia un campus virtual accesible” dirigido a administradores de
plataformas virtuales de universidades, colegios e instituciones educativas de
la región central del Perú que tuvo como propósito concienciar a los
webmasters y administradores sobre la accesibilidad web y presentar el
MOODLE ESVI-AL.
x La tercera actividad está referida a los temas de las Conferencias Magistrales
que forma parte de la programación del congreso ATICA, seis de las ocho
conferencias magistrales estuvieron referidas a la aplicación de las TIC en
mejorar la accesibilidad, tales como: Estándares de accesibilidad web, El
papel de los videotutoriales accesibles en el aprendizaje del futuro, TICs,
educación, discapacidad visual: desafíos y oportunidades para evitar un
“Abismo digital”, Integración de objetos de aprendizaje accesibles en
sistemas de aprendizaje, Plataforma MOODLE ESVIAL accesible y Diseño
para todos, Páginas web y documentos accesibles según normas
internacionales W3C.

Los organizadores del taller, esperamos contribuir de esta manera; con este
granito de arena en dar a conocer las problemática de la accesibilidad, pero
también las oportunidades que ofrecen las TICs en el objetivo de conseguir
una Sociedad de la Información accesible e inclusivo.
$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Productos de un Proyecto Educativo Virtual Accesible


sobre Innovación Docente utilizando la Guía ESVIAL

Carmen Varela Báez1


1
Directora del Centro de Estudios Virtuales
Rectorado
Universidad Nacional de Asunción
Asunción (Paraguay)
Tfno: 585540
E-mail: carmenvarelapy@gmail.com

Antonio Miñán Espigares2


2
Departamento de Didáctica y Organización Escolar
Facultad de Ciencias de la Educación
Universidad de Granada
18071 Granada (España)
Tfno: 0034 639287581

Resumen. En este artículo se presenta el análisis realizado para el diseño de


una Maestría Virtual en Innovación Docente utilizando la Guía Metodológica
para la implantación de desarrollos curriculares virtuales accesibles. Esta guía
propone el seguimiento de 7 procesos para poner en marcha un curso virtual:
Análisis de Necesidades, Análisis del Marco, Concepción y Diseño, Desarrollo
y Producción, Implementación, Proceso de aprendizaje y Evalua-
ción/Optimización. Para cada proceso se propone definir los productos a obte-
ner, las técnicas a utililzar y las métricas o criterios de calidad que debemos
exigir, así como los participantes en cada tarea de cada proceso. En este trabajo
se expone la reflexión y el trabajo realizado con el primer elemento: los produc-
tos. Es el primer paso para un buen diseño del curso.

Palabras clave: Innovación Docente, Maestría Virtual, Productos, Calidad,


Accesibilidad.

1 Introducción

En este artículo se hace una revisión de todos los productos que deben obtenerse para
hacer un curso virtual accesible según la Guía ESVIAL.[1] Esta revisión se hace a la
luz de un nuevo curso que se encuentra en su fase de diseño. En gran medida la refle-
xión realizada en este trabajo contribuirá a detectar aspectos que no hubieran sido
descubiertos, de no hacer una planificación cuidadosa. Este trabajo servirá de base


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

para la posterior definición de técnicas, métricas y participantes. En un proceso poste-


rior se definirán minuciosamente y justificadamente los productos esbozados aquó. Y
contribuirá a la calidad y éxito de esta propuesta formativa. Esta experiencia nace en
el marco de desarrollo de un centro de reciente creación: el CEVUNA.Entendemos
que la puesta en práctica de proyectos formativos virtuales accesibles es un proceso
evolutivo de mejora, que sigue los procesos y la retroalimentación indicada en la guía
ESVIAL. Recordemos que “La formación puede considerarse un producto o servicio,
y por tanto debe estar sujeta a mecanismo de garantía de la calidad.[2]. La guía
ESVIAL se ha realizado teniendo en cuenta los estándares internacionales, y se ha
planteado el tema de la calidad y la accesibilidad que en este trabajo pretendemos.

1. Proceso de Análisis de Necesidades (AN)

AN1.1 Identificar demandas y requisitos


Segmentos objetivo de mercado: Profesorado Universitario internacional de todas las
áreas de conocimiento. Profesorado no universitario. Estudiantes para profesorado,
Formadores de formadores, auxiliares y ayudantes de cátedra, becarios de investiga-
ción.
Situación de las personas con discapacidad en segmentos objetivo: Puede haber per-
sonas con discapcidad motórica, visual y auditiva entre el profesorado universitario y
no universitario para los que hay que hacer una enseñanza accesible.
Definición de necesidades: La Universidad, en general, sigue basando su enseñanza en
la clase tradicional, por lo que es necesario ofrecer formación para la innovación.
Incluso en Universidades donde ya existe una tradición en innovación la formación
para la innovación es necesaria.
Requisitos para satisfacer las necesidades: Tutores con experiencia en innovación
docente y en accesibilidad, la plataforma moodle accesible del CEVUNA, personal
técnico y administrativo y de gestión educativa.
AN1.2. Definir la clase de demanda de la cualificación:
Cualificaciones reconocidas: Título de Master
AN2.1. Identificar personal docente, técnico y administrativo
Perfiles: Dirección del Centro Virtual, Coordinación de la Maestría, Profesorado tutor
especialista en innovación docente de las diferentes áreas, Expertos en discapacidad y
accesibilidad, equipo técnico.
AN2.2. Identificar partes interesadas
Perfiles de las organizaciones interesadas: Universidad de Granada y Universidad
Nacional de Asunción.
AN2.3. Identificar estudiantes
Los estudiantes de esta maestría serán fundamentalmente profesorado universitario,
aunque también pueden admitirse, de manera secundaria, profesorado no universitario
y estudiantes de educación, becarios de investigación, etc. teniendo en cuenta la posi-
bilidad de que haya estudiantes con discapacidad motórica, auditiva y visual.
AN3.1. Formular objetivos estratégicos
Objetivos estratégicos:


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

─ Conseguir un número aceptable de estudiantes para la maestría que la hagan


sostenible.
─ Conseguir financiación externa para becar a estudiantes con discapacidad.
─ Evaluar el impacto de la maestría en cuanto a la evolución de la innovación
docente que se pone en práctica.
─ Avanzar en la accesibilidad en función de las necesidades de los estudiantes
matriculados.

Objetivos tácticos:
─ Conseguir para la primera edición alrededor de 50 estudiantes.
─ Conseguir ayuda económica para la primera edición
─ Garantizar que los módulos enseñen de manera práctica a hacer innovación
docente
─ Conseguir que el diseño inicial esté preparado para la accesibilidad de perso-
nas con discapacidad física, auditiva y visual.
Objetivos operativos:
─ Difundir la maestría a nivel internacional para que también profesorado uni-
versitario con discapacidad pueda hacerlo.
─ Alcanzar la cifra de 45 estudiantes al menos que sean profesorado universita-
rio en su mayoría, y si es posible, con alguna discapacidad que nos sirva de
guía para comenzar la accesibilidad de la maestría.
─ Solicitar ayuda económica en dos instituciones, obteniendo ayuda de al me-
nos una.
─ Hacer un seguimiento, sobre todo en los trabajos fin de maestría, para garan-
tizar que la innovación docente de los proyectos es real
─ Comenzar a construir un repositorio con recursos didácticos accesibles inno-
vadores

2. Proceso de Análisis del Marco (AM)

AM1.1. Analizar las condiciones según el marco regulador en el ámbito político-


educativo: Las condiciones en que se realiza el diseño de la maestría en innovación
docente es muy propicio porque disponemos de la información del proyecto sobre el
marco regulador y se están realizando talleres formativos sobre accesibilidad en la
docencia on line.
AM1.2. Analizar las condiciones económicas y sociales: Hay que tener en cuenta que
en zonas rurales puede que no haya un acceso a internet adecuado y que las situacio-
nes económicas no permitan a determinados estudiantes disponer de los dispositivos
básicos para seguir el curso. También puede haber dificultades de desplazamiento
para determinadas personas que a pesar de ser online, se necesitan tener algunas
reuniones de gran grupo. Estamos en contacto con instituciones de personas con dis-
capacidad y organismos para necesidades educativas especiales de las universidades
qu pueden ayudarnos a conocer tipos de ayudas individualizadamente.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

AM2.1. Analizar el modelo de negocio y la estructura organizativa e institucional:


Integración en modelo de negocio de la institución y valor añadido: La Maestría se
integra dentro del modelo de gestión del Departamento de Posgrado de la Universidad
Nacional de Asunción. El valor añadido de esta Maestría es servir de modelo para el
resto de estructuras de enseñanza online de todas las facultades de la UNA.
También reporta un beneficio a la línea emprendida por la UNA de avanzar en una
universidad inclusiva. El contenido de la Maestría es un tema transversal a toda la
universidad, se trata de innovar la docencia, en todas las áreas de conocimiento, en
todas las facultades. El beneficio será tanto para la enseñanza virtual como presencial.
Entre los principios del Centro de estudios virtuales de la UNA (CEVUNA) se en-
cuentra llegar al País, a los sitios más alejados del País, para conseguir que los servi-
cios que se prestan beneficien a la sociedad en general.
Departamentos implicados: Directamente debemos tener presente al CEVUNA, al
Departamento de posgrado de la UNA y a departamentos disciplinares según áreas de
conocimiento, tanto de la Universidad de Granada como de la Universidad Nacional
de Asunción. También es necesario tener en cuenta la conexión con departamentos de
la propia universidad e instituciones de la ciudad relacionados con la discapacidad, en
los que encontramos apoyo.
Procedimiento organizativo para poner en marcha una acción formativa virtual acce-
sible en la institución: El Profesor o equipo de profesores elaboran un plan de estudios
y un presupuesto. Este proyecto se presenta en el departamento correspondiente de la
Facultad o, como en este caso en posgrado de la UNA, posteriormente es estudiado
por el Consejo Universitario, que lo estudia y emite una resolución donde figura todo,
después de indicar y supervisar las correcciones adecuadas.
Acciones a realizar para que tenga éxito: Entendemos que hay una serie de factores
clave para que tenga éxito la experiencia formativa, entre los que destacamos: Hacer
un presupuesto adecuado, obtener alguna financiación, garantizar la calidad de los
profesores, que la coordinación sea eficaz y dirija los procesos de aprendizaje., que
los materiales didácticos sean de calidad, innovadores y accesibles.
Política de accesibilidad en la institución: Sí existe una política favorable a la discapa-
cidad en la institución, que se traduce en planes, centros y actuaciones.

AM2.2. Analizar las competencias-cualificaciones y disponibilidad de los recursos de


plantilla: Es necesario definir el equipo del CEVUNA y sus funciones, pues al ser de
reciente creación es posible que determinadas funciones deba encargarlas externamen-
te.
AM2.3. Analizar los recursos técnicos disponibles y las condiciones de infraestructura
y barreras existentes: El CEVUNA dispone de los recursos técnicos básicos para em-
pezar a trabajar aunque será necesaria la compra de nuevo hardware y software que
hagan más ágil el trabajo. Hay que tener en cuenta la mala calidad de internet, con
picos de gran lentitud en determinadas horas y con una velocidad no adecuada para
mantener videoconferencias grupales audiovisuales de calidad. También debemos
avanzar para hacer una plataforma accesible.
AM3.1. Analizar los factores socio-culturales y demográficos del grupo objetivo de
estudiantes: Puesto que va dirigido a estudiantes a nivel internacional no existen unos
únicos factores socio-culturales y demográficos que definan el grupo objetivo. En


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

principio sí contamos con información cualitativa sobre las necesidades del profesora-
do de la UNA, en el que ya se ha instaurado un sistema de innovación docente. Tam-
bién disponemos de información cuantitativa sobre las necesidades en el uso de TICs
que tienen. En todo caso sí podemos pensar en cierta homogeneidad en cuanto a
profesorado universitario que trabaja intelectualmente y tiene una formación y una
trayectoria docente que le confiere experiencia. Por otra parte se trata de unos estu-
diantes muy heterogéneos, demográficamente, culturalmente, etc.
AM3.2. Analizar las destrezas, cualificaciones, competencias previas exigidas a los
estudiantes: Los estudiantes deberán tener preferentemente experiencia docente y la
titulación correspondiente. También deberán tener las competecias necesarias para el
uso de las TICs.
AM3.3. Definir un modelo de información para expresar necesidades y preferencias
del estudiante: Se realizará mediante un formulario y una entrevista posterior.
AM4.1. Elaborar la planificación temporal con los ciclos de evaluación adaptados
requeridos: En una primera aproximación tenemos: Primera edición: 2014, Segunda
edición: 2016
AM4.2. Elaborar la planificación presupuestaria:
Elaboración de un primer plan presupuestario teniendo en cuenta solo ingresos por
matrícula. Está en proceso de elaboración.
AM4.3. Establecer las restricciones contractuales: Si surgen necesidades se contrata-
rán servicios externos.

3. Proceso de Concepción/Diseño (CD)

CD1.1. Definir las guías docentes accesibles: Se elaborará un formato de guía docente
que se remitirá a cada profesor de la maestría para su cumplimentación. También se
elaborará un manual de elaboración de guías docentes accesibles.
CD1.2. Formular los objetivos: Se definirán los objetivos didácticos tanto del curso
como de cada una de las materias de cada módulo. Teniendo presente que se incluyan
objetivos de accesibilidad
CD1.3. Definir las competencias a obtener por el estudiante: Diferenciar tanto en el
curso de manera global como en cada materia las competencias genéricas y las compe-
tencias específicas. Teniendo en cuenta entre las genéricas la de adaptación y accesibi-
lidad.
CD1.4. Identificar los tópicos/materias: Habrá materias más genéricas y otras más
específicas según áreas de conocimiento. Dándole un énfasis especial a lo contenidos
prácticos.
CD2.1. Definir los modelos didácticos que garanticen accesibilidad e inclusión: Los
modelos a emplear serán variados, teniendo en cuenta que se proporcionarán graba-
ciones audiovisuales de conferencias, ejercicios y problemas y otras metodologías que
se definirán en función de las temáticas tales como estudio de casos, aprendizaje ba-
sado en problemas, etc. Los modelos pedagógicos activos posibilitarán la inclusión y
el aprendizaje de los estudiantes. Los recursos didácticos que se utilicen tienen que ser
accesibles, para discapacidad visual, auditiva y motora.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

CD2.2. Establecer los escenarios de aprendizaje inclusivo: Relaciones, roles y activi-


dades se organizarán con la plataforma Moodle.
CD2.3. Identificar las actividades a realizar: Cada profesor, después de recibir la for-
mación y las indicaciones pertinentes por parte de la coordinación del Master, diseña-
rá y entregará las actividades de su módulo, en este proceso se irá ofreciendo apoyo en
las necesidades que surjan para hacer accesibles los materiales.
CD3.1. Definir el papel, tareas, responsabilidades y derechos de los actores en el
escenario educativo inclusivo: Se organizará un diagrama de flujo con el trabajo de
todos los participantes.
CD3.2. Definir el lugar y tiempo de aprendizaje: Se organizará un calendario, que se
actualizará en la plataforma, indicando también los lugares para las sesiones presen-
ciales.
CD3.3. Identificar los requisitos técnicos obligatorios y opcionales: Se irán definiendo
en función de los estudiantes y de los materiales a usar.
CD4.1. Seleccionar y describir los aspectos de los recursos multimedia (webs, vídeos,
audios…) y sistemas de comunicación accesibles a utilizar en el proceso educativo
inclusivo: Se trata de los aspectos más creativos del curso, que deberán ir en función
de la metodología elegida y de las necesidades de accesibilidad de los materiales.
CD4.2. Seleccionar y describir los tutores, moderadores e instructores del estudiante:
Esta selección y descripción se realizará en función de las competencias exigidas para
desarrollar el curso adecuadamente: actitud inclusiva, experiencia en innovación, etc.
CD5.1. Especificar las pruebas de evaluación a realizar: Elaborar las pruebas y crite-
rios a utilizar en la evaluación, realizando también las adaptaciones correspondientes.
CD5.2. Validar las pruebas de evaluación diseñadas: Realizar una evaluación para la
mejora, adaptando individualizadamente las pruebas a utilizar.
CD6.1. Definir el procedimiento para realizar las actualizaciones didácticas y metodo-
lógicas que aseguren la estabilidad de la accesibilidad e inclusión: Realizar un dia-
grama estableciendo las responsabilidades y el procedimiento para las actualizaciones
metodológicas y de recursos.
CD6.2. Definir el procedimiento para realizar las actualizaciones de contenidos que
asegure la estabilidad de la accesibilidad e inclusión: Generalmente esta actualización
se realizará de edición a edición. Y no tiene por qué afectar a los aspectos de accesibi-
lidad e inclusión.
CD6.3. Definir el procedimiento para el mantenimiento técnico que asegure la estabi-
lidad de la accesibilidad: organizar un diagrama de procedimiento con responsabilida-
des.

4. Proceso de Desarrollo/Producción (DP)

DP1.1. Descomponer el trabajo de producción de contenidos accesibles: Ordenar


todos los recursos obtenidos
DP1.2. Planificar la producción: Hacer un diagrama para la producción de los elemen-
tos del curso.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

DP2.1. Realizar el diseño detallado accesible de los recursos multimedia: Esta fase no
es necesaria, ya que se hizo en CD4.1.
DP2.2. Diseñar las interacciones: Elaborar un manual o guía para normativizar las
interacciones profesor-alumno.
DP3.1. Producir recursos multimedia accesibles: Se trata de producir los recursos
previamente diseñados. Conviene tener un cronograma para la producción de estos
recursos.
DP3.2. Probar recursos multimedia accesibles: Esta fase va unida a la anterior. En la
medida en que se van produciendo se van probando.
DP4.1. Desarrollar el software didáctico accesible: Una vez que se tengan los materia-
les se suben a la plataforma utilizando el software correspondiente.
DP4.2. Probar el software didáctico accesible: Va unido a la anterior
DP5.1. Revisar material existente y determinar si este puede ser adaptado o rediseña-
do: Se trata de la búsqueda en la red de materiales útiles para nuestros propósitos así
como otros materiales de los que se disponga: grabaciones vídeo, textos, etc. Una vez
localizado y ordenado se debe proceder al análisis técnico de la posible adaptación
para que sea accesible.
DP5.2. Realizar acciones para reutilización, repropósito y adaptación de materiales
preexistentes: Puede ir unida a la fase anterior.
DP6.1. Integración de recursos multimedia, software y material reutilizado: También
se une a la fase anterior.
DP6.2. Pruebas de integración y funcionales: Esta fase se va realizando en simultáneo
con las anteriores.

5. Proceso de Implementación (IM)

IM1.1. Preparar la plataforma de aprendizaje (LMS): Asegurarnos de que la platafor-


ma que vamos a usar es accesible.
IM1.2. Integrar recursos educativos y diseño didáctico: Se trata de montar el curso
para que sean coherentes los recursos educativos construidos con el modelo didáctico
elegido.
IM1.3. Realizar pruebas en el entorno de aprendizaje: Conviene hacer pruebas con
personas externas antes de lanzar el curso.
IM2.1. Organizar el soporte técnico: El CEVUNA ya dispone de un equipo técnico
para implementar todo el soporte y supervisa todo el software que se necesita.
IM2.2. Organizar el soporte a usuarios: Hacer un diagrama de servicios de soporte,
con direcciones de correo y responsabilidades.

6. Proceso de Aprendizaje (PA)

PA1.1. Obtener información del estudiante: se prepararán los formularios


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

PA1.2. Gestionar facturación/contabilidad: Lo llevará el servicio de Posgrado


PA1.3. Proporcionar al estudiante los componentes organizativos que faciliten el
aprendizaje: Cuidar que el estudiante esté en todo momento perfectamente informado,
tenga todos los materiales con la antelación suficiente, etc.
PA2.1. Dar a conocer los servicios institucionales que presta la Universidad: Tener en
cuenta el compromiso que tenemos en relación a una tutoría integral del estudiante.
PA2.2. Registrar las necesidades y preferencias del estudiante y adaptar la plataforma
de aprendizaje: A pesar de haber diseñado el curso anteriormente necesitamos dispo-
ner un sistema para actualizar dicha información, con objeto de poder actualizar du-
rante el proceso.
PA2.3. Capacitar a los usuarios en ambientes virtuales de aprendizaje accesibles y en
el uso de las tecnologías de apoyo: Confeccionar guías y talleres cortos formativos
para el correcto uso que harán los usuarios.
PA3.1. Implementar los apoyos pedagógicos, didácticos, metodológicos y técnicos:
Puesta en práctica del curso siguiendo las pautas establecidas de calidad y accesibili-
dad.
PA3.2. Ejecutar la docencia según modelo pedagógico y preferencias: Unido al ante-
rior
PA4.1. Evaluar el aprendizaje y la transferencia de conocimiento: Recogida de infor-
mación para la evaluación para obtener las calificaciones y las recomendaciones de
mejora.
PA4.2. Gestionar los resultados de los estudiantes: Disponer de un sistema de comu-
nicación e intercambio con los estudiantes.

7. Proceso de Evaluación/Optimización (EO)

Como proceso de revisión y control de todos los demás se definirá posteriormente. Se


estudiará la posibilidad de que haya una evaluación externa.

8. Conclusiones

La Guía ESVIAL es una guía muy completa que ayuda en los procesos de construc-
ción, implementación y evaluación. Gracias a esta guía, se evita la improvisación, con
lo que se gana en calidad. También la accesibilidad necesita tiempo para producir los
materiales adecuados. En este trabajo se unen los tres pilares con los que nació el
CEVUNA: Innovación, calidad y accesibilidad. Este documento servirá de guión-base
para llevar a cabo la construcción de la Maestría citada.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Referencias

1. Hilera, J.R. Guía metodológica para la implantación de desarrollos curriculares virtuales
accesibles. Universidad de Alcalá de Henares (2013).
2. Hilera, J.R., UNE 66181:2008, el primer estándar sobre calidad de la formación virtual.
RED, Revista de Educación a Distancia. Número monográfico VII.- 30 de Diciembre de
2008.Número especial dedicado a la evaluación de la calidad en entornos virtuales de
aprendizaje. http://www.um.es/ead/red/M7/. (2008)


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Construcción de competencias y habilidades en


computación y programación para personas con
discapacidad visual: Un enfoque de inclusión

Gerardo Contreras Vega1, Carlos Alberto Ochoa Rivera1, Francisco Sánchez


Vásquez1, Lizbeth Contreras Rivas1, Alma de los Ángeles Cruz Juárez2, María Elena
Díaz León2, Yadira Izbeth Tapia Garrido2
1
Facultad de Estadística e Informática – Universidad Veracruzana, Av. Xalapa
Esquina Manual Ávila Camacho s/n, Xalapa, Veracruz 91000 México.
Gerardo Contreras Vega, gcontreras@uv.mx
Carlos Albero Ochoa Rivera, cochoa@uv.mx
Francisco Sánchez Vásquez, zuturito@gmail.com
Lizbeth Yesenia Contreras Rivas, lisi879@gmail.com
2
Programa Universitario para la Inclusión e Integración de Personas con Discapacidad
– Universidad Veracruzana, Tuxpan #29 Fraccionamiento Veracruz, Xalapa,
Veracruz 91000 México.
Alma de los Ángeles Cruz Juárez, acruz@uv.mx
María Elena Díaz León, elena_leon_3000@hotmail.com
Yadira Izbeth Tapia Garrido, yadis_gt@hotmail.com

Resumen. En el contexto educativo y específicamente en la educación superior,


las personas con discapacidad presentan dificultades en su ingreso, permanencia
y egreso de la Universidad. Las barreras que se enfrentan las personas con
discapacidad visual, es la falta de Tiflotecnología a su alcance que facilite su
desarrollo académico, social y laboral.
La Facultad de Estadística e Informática en colaboración con el Programa
Universitario para la Inclusión e Integración de Personas con Discapacidad de
la Universidad Veracruzana se dieron a la tarea de diseñar una distribución de
software libre adaptada para personas con discapacidad visual con el objetivo
de contar con una herramienta de apoyo para la vida académica o laboral. En
este trabajo se describen las mejoras y adaptaciones a la distribución Halconix y
se presentan los resultados de su uso en dos cursos para desarrollar las
competencias básicas en computación y programación en las personas con
discapacidad visual.

Palabras clave: Discapacidad Visual, Accesibilidad, Adaptación,


Tiflotecnología, Software libre, Halconix, GNU/Linux, Adaptabilidad.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

1 Introducción

La Promoción de la Salud, representa una estrategia que provee a la población,


mediante su participación información, habilidades, competencias, os medios
necesarios para que la persona pueda ejercer un mayor control sobre su vida,
identificando y satisfaciendo sus necesidades, para cambiar y/o adaptarse al medio
[1].
Por otra parte, la Educación para la Salud se muestra como el proceso para la
adquisición de conocimientos, desarrollo de competencias y formas de actuación
dirigidas a lograr cambios que favorezcan su salud [2].
El desarrollo de competencias, está relacionado con la capacidad de poner en
práctica los diferentes conocimientos, habilidades y valores de manera integral en las
diferentes interacciones que tienen los seres humanos para la vida en el ámbito
personal, social y laboral. Bajo esta perspectiva, la Universidad Veracruzana ha
transitado de un modelo educativo rígido a una visión marcada por la idea del
conocimiento y su distribución social.
En esta línea de argumentación se inserta el tema de la educación por
competencias, ahora se entiende que hay que educar para toda la vida y no solamente
para la inserción laboral. En este sentido, sin duda el mayor aporte de la informática
en el campo de la discapacidad visual, es el ser una herramienta accesible y muy
valiosa, que permite la interacción con los demás, es decir su posibilidad de
comunicación escrita, con lo cual se favorece el desarrollo de competencias y
habilidades para el aprendizaje autónomo.
La informática y la computación, como instrumentos tecnológicos de gran alcance,
se visualizan como medios que contribuyen al mejoramiento de la calidad de vida de
las personas con discapacidad visual, al favorecer su autonomía para satisfacer sus
necesidades. Se trata en definitiva de una posibilidad que propicia la salud de esta
población.
Con esta consideración la Facultad de Estadística e Informática en colaboración
con el Programa Universitario para la Inclusión e Integración de Personas con
Discapacidad, ambas dependencias académicas de la Universidad Veracruzana, se
dieron a la tarea de hacer una distribución GNU/Linux, llamada “Halconix” para
contar con una herramienta de apoyo para personas que cuenten con una discapacidad
visual [3]. La herramienta apoya para que personas con discapacidad visual elaboren
documentos y a su vez que aprendan el desarrollo de páginas web accesibles, así, este
grupo de personas desarrolle nuevas competencias en cómputo.

2 Halconix y sus beneficios para personas con discapacidad visual


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Es una distribución GNU/Linux que se desarrolló en el año 2010, fue diseñada para
que estudiantes de la Licenciatura en Arquitectura contaran con software libre para
realizar las actividades propias de su carrera [4], pero ahora se hace una adaptación
para que las personas con discapacidad visual puedan hacer uso de ella, y la
conviertan en una herramienta de apoyo para su vida cotidiana o laboral.
Esta distribución cuenta con software libre para la accesibilidad, lector de pantalla,
dos magnificadores, la suite de oficina con plantillas incluidas en el procesador de
textos para elaborar documentos, además una serie de combinaciones de teclas que
facilitan la ejecución de distintas aplicaciones [3].

2.1 Herramientas y configuraciones integradas en la distribución

La distribución de GNU/Linux Halconix para discapacidad visual, tiene como


objetivo no solamente ser usada por personas ciegas, sino también por personas que
cuenten con baja visión, es por ello que el software cuenta con configuraciones y
adaptaciones para que también pueda ser usada por éste grupo de personas.
Se instalaron programas accesibles principalmente el lector de pantalla “Orca” el
cual se distribuye con una licencia libre lo que permite agregar modificaciones al
programa para mayor funcionalidad por medio de scripts.
Otra de las aplicaciones que cuenta la distribución es un conversor de texto a audio
llamado “Gespeaker”, ésta aplicación permite que se escriba un texto y se convierta a
audio, esto para tener una colección de audios o que a su vez guarde el texto que
ingresó en un archivo de texto plano para su posterior lectura con el lector de pantalla.
Los navegadores web que se incluyeron para la navegación a través de la red
fueron “Lynx” un navegador web por medio de la consola mostrando únicamente el
texto plano de las páginas y Mozilla Firefox, que con el uso y configuración de las
extensiones se adaptó para que fuera usado por personas con discapacidad visual,
algunas de las extensiones que se añadieron a Firefox fueron “WebVisum”, que
permite la solución de imágenes Captcha, “Big Buttons” con la funcionalidad de
agrandar los botones de la interfaz de Firefox, “Theme & Font Size Changer” con la
característica de poder configurar el fondo del texto y las letras a colores en alto
contraste entre otras.
Parte de la configuración para que la distribución fuera usada sin problemas por
personas con baja visión, fue adaptar en alto contraste tanto la interfaz del sistema
como de algunas aplicaciones para que fuera fácil y manejable.
Para la suite ofimática LibreOffice se cuentan con plantillas para elaborar
documentos sencillos y macros para facilitar algunas operaciones con una sola
instrucción.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

3 Curso a personas con discapacidad visual

Para probar la distribución Halconix se ofrecieron dos cursos el primero de ellos


durante el año 2012 y el segundo mencionado en el mes Mayo al mes de Agosto del
año 2013, los cursos llevaron por nombre los siguientes: “Competencias básicas en
computación para personas con discapacidad visual” y el segundo “Competencias
básicas en computación y programación para personas con discapacidad visual”. En
ambos cursos se estructuró una base teórica y una base práctica. En la base teórica se
programaron diferentes temas de interés para los participantes que de manera
vivencial abordaran diferentes aspectos de la discapacidad y complementaran sus
contenidos de manera integral.
En el primer curso, de inicio se analizaron los aspectos jurídicos de la discapacidad
para que los participantes conocieran los derechos de las personas con discapacidad y
fomentar su promoción. Es importante mencionar, que para abordar esta temática se
partió del gran conglomerado de instrumentos jurídicos de derechos humanos,
acentuando la trascendencia de la Convención sobre los derechos de las personas con
discapacidad en nuestro país, su respaldo Constitucional y las armonizaciones de
nuestra legislación interna con la misma Convención plasmadas en: la Ley General
para la Inclusión de las Personas con Discapacidad, Reglamento de la Ley General
para la Inclusión de las Personas con Discapacidad [2] y la Ley para la Integración de
las Personas con Discapacidad del Estado de Veracruz de Ignacio de la Llave [5].
Aunado a esto, se abordaron normas específicas de las instituciones de educación
superior como la Declaración de Yucatán sobre los Derechos de las Personas con
Discapacidades [6] y la Ley Orgánica de la Universidad Veracruzana. Partiendo de
este soporte jurídico se instruyó a los participantes en el tema del rol social de la
Universidad Veracruzana y de la importancia de ser agentes de cambio o retroceso en
la cultura de inclusión de personas con discapacidad dentro de nuestra casa de
estudios.
También se abordó el tema de la accesibilidad de la tecnología educativa como una
breve introducción a las Tecnologías de la Información y la Comunicación aplicada a
las personas con Discapacidad, así como las Tiflotecnologías de la actualidad [7]. Así
mismo se analizaron las áreas de oportunidad de la informática y la computación para
el desarrollo de competencias, temas considerados dentro del marco de la promoción
y la educación para la salud.
Como parte innovadora y sustancial del segundo curso se planeó incluir la
programación de páginas web y por consiguiente se determinó que la mayor parte de
las sesiones del curso estuvieran enfocadas a esta actividad.
El primer curso que se impartió tuvo una duración de los primeros 4 días del mes
de Agosto 2012 con una duración de 4 horas por sesión y la participación de 11
personas con discapacidad visual.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

El segundo curso tuvo una duración de 50 horas con una duración de 10 sesiones
durante los días Sábado desde el mes de Mayo al mes de Agosto 2013 y nuevamente
contó con la participación de 5 personas con discapacidad visual a quienes se les
pidieron cubrir los requisitos del primer curso: Ser persona ciega o de baja visión,
tener conceptos de mecanografía y de computación así como tener plena autonomía
en su desplazamiento.
Los participantes en esta ocasión desarrollaron una página web con la temática
que ellos desearon ya que de esta manera tenían la libertad y facilidad de expresarse y
buscar la información que fuera necesaria de acuerdo al tema de su agrado.
Las páginas desarrolladas se albergaron en Google Drive para que se contara con el
acceso a las páginas a través de internet desde cualquier sitio. Los resultados
obtenidos con el desarrollo de las páginas y la enseñanza del lenguaje de marcas
HTML fueron bastante satisfactorios.
Es importante mencionar que los participantes de esta segunda etapa fueron
capaces de desarrollar páginas web accesibles muy básicas pero con elementos que
resaltan la accesibilidad en ellas, como la navegación con teclado, la descripción de
imágenes, la adaptación con el lector de pantalla, entre otros.
Con ayuda del lector de pantalla y los comandos, los participantes fueron capaces
de identificar el formato del documento en el que se trabajaba. Así mismo se les
enseñó también el uso de la hoja de cálculo Libre Office Calc haciendo uso de
pequeñas actividades básicas que les ayudaron a entender el uso de las filas y
columnas y el uso de fórmulas para la solución de ecuaciones y creación de gráficos.
Por último como alternativa a la creación de diapositivas, se mostró el uso del
programa Magic Point para crear presentaciones con un formato sencillo y fácil de
usar con ayuda de una plantilla.
También se llevó a cabo actividades con la suite ofimática, en primer lugar
haciendo uso del procesador de texto LibreOffice Writer, con ayuda de plantillas para
elaboración de documentos como una carta formal, laboral, oficio y tríptico, además
de actividades que incluyeron el uso de incrustar imágenes dándole formato al
documento.
Es relevante mencionar que además de la parte operativa que se abarcó en el curso
también se abordó una parte teórica en la cual se abordaron temas relacionados con la
discapacidad, la familia, autoestima, sitios web accesibles, leyes, tiflotecnologías y la
inserción laboral de las personas con discapacidad.
En cuanto a la autoestima, se enfocaron los contenidos a fortalecer la aceptación y
el reconocimiento de sí mismo en los participantes. Se analizó el auto concepto, auto
imagen y auto confianza en relación con el rendimiento académico y laboral del
individuo; así como se establecieron estrategias para fortalecer la autoestima.
Otro tema reservado para este curso fue el de “Familia y discapacidad”, donde se
abordó la importancia de la familia en el desarrollo de las personas con discapacidad;


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

aunado a esto, se analizaron las etapas psico-afectivas que viven las familias al
afrontar la discapacidad.
Nuevamente se insertó el tema de las “Tiflotecnologías”, por una parte en razón de
la naturaleza del mismo curso, sin embargo, en esta ocasión se focalizó este contenido
en el desarrollo de páginas web accesibles para las personas con discapacidad.
Finalmente, se desarrolló la temática de la inserción laboral de las personas con
discapacidad, partiendo de la situación actual que vive este grupo vulnerable y de las
situaciones de discriminación a la que está expuesto. Así mismo, se identificó la
orientación hacia el empleo o el emprendimiento de los participantes, realizando
prácticas concretas de las fases de un proceso de selección en el empleo y del diseño
de proyectos en el emprendimiento. También se les informó sobre las instituciones
públicas que protegen los derechos de los trabajadores con discapacidad, los
programas públicos y de asociaciones civiles con este mismo objetivo y las empresas
que contratan personas con discapacidad.
Cabe añadir que para éste segundo curso se hicieron mejoras y nuevas
adaptaciones tanto de programas como del propio manejo de la distribución por el L.I
Francisco Sánchez Vásquez para lograr una mayor adecuación y autonomía en su uso
por parte de las personas con discapacidad visual en base a los comentarios y
opiniones que surgieron durante el desarrollo de las sesiones del primer curso
impartido por la L.I Lizbeth Yesenia Contreras Rivas.
Se elaboró a partir de una imagen de la distribución instalada un CD en vivo para
que los usuarios únicamente al arrancar el equipo y tener insertado el disco o
dispositivo con la imagen grabada de la distribución pudieran hacer uso de ésta en
cualquier lugar y traerla de manera portátil sin necesidad de estar instalando el
software en el equipo a ocupar.
Al finalizar el curso se hizo un ejercicio vivencial con los participantes quienes
opinaron:

x La mayor parte de los asistentes no conocían éste software.


x Hubo consenso al considerar este software como muy valioso porque se adapta
a las necesidades de las personas con discapacidad visual.

Opinaron que la utilización de ésta distribución favorece el desarrollo de


competencias básicas, tales como:

x Aprender a aprender por sí mismo y con otros.


x Utilizar de manera interactiva, las herramientas (lenguaje, información,
conocimiento y tecnología) accesibles.
x Argumentar ideas en forma crítica que le permitan su participación activa en
las interacciones con otros, como sería la formación de una Red de personas
con discapacidad visual.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

x Comunicarse en forma asertiva y efectiva en el contexto del desarrollo grupal


y con los interlocutores.
x A prender hábitos de autonomía personal.
x Habilidades académicas o funcionales compensatorias incluyendo formas de
comunicación.
x Creatividad.
x Razonamiento crítico para programar.

4 Conclusiones

La Universidad Veracruzana como institución promotora de salud incorpora a su


proyecto educativo la promoción y la educación para la salud con el fin de propiciar el
desarrollo humano y mejorar la calidad de vida, en este caso de las personas con
discapacidad visual.
La utilización del software libre como alternativa para adaptar herramientas que
satisfagan las necesidades de los usuarios, en éste caso, a personas con discapacidad,
es una forma bastante viable y positiva, ya que pagar por una licencia de alto costo a
veces es imposible a los usuarios poder adquirir software legalmente.
La herramienta Halconix permite que personas con discapacidad visual puedan
adaptarse a otro tipo de plataformas, desarrollando en ellas la habilidad de usar
múltiples sistemas operativos, en nuestro caso Linux, mientras sea con las
herramientas y adecuaciones necesarias para su funcionalidad con usuarios con
discapacidad.
Se realizaron encuestas al finalizar el curso sobre la temática, aceptación y
sugerencias del mismo y la mayoría de los integrantes apoya la realización de este
tipo de proyectos, ya que para ellos, es una forma de abrir nuevas oportunidades a un
ámbito tanto académico como laboral.
Las aplicaciones instaladas y adaptadas dentro de la distribución han sido
aceptadas por los usuarios, permitiendo que el uso de la distribución sea mucho más
autónomo y tenga una estructura mucho más adaptada a múltiples equipos de
cómputo diferentes.
Enseñar a personas con discapacidad visual el desarrollo de páginas web accesibles
y a su vez tener las páginas desarrolladas montadas en la red, muestra que es posible
desarrollar competencias en este grupo de personas para que puedan adquirir sin
problemas conocimiento, que muchas veces a nivel social se ponen barreras pensando
que una persona con discapacidad no puede ser capaz de desenvolverse en entornos
académicos o laborales, eso es una limitante que se ha tratado de romper hoy día, con
trabajos desarrollados en la Universidad Veracruzana como éste, permite que
desaparezcan ese tipo de barreras hacia las personas con discapacidad.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Con la experiencia de este trabajo, identificamos como equipo que los próximos
cursos de Halconix deben encaminarse a lograr que esta herramienta se utilice para
enseñar un lenguaje de programación y desarrollar aplicaciones accesibles de
escritorio; incorporar las necesidades de personas con otros tipos de discapacidades,
así como lograr una mayor autonomía en su uso para las necesidades de las personas
con discapacidad visual.

Referencias

[1] OMS, (2011) Discapacidades. Recuperado el 4 de Octubre de


http://www.who.int/topics/disabilities/es/
[2] Secretaría General (2011, Junio). Ley General para la Inclusión de las Personas
con Discapacidad. Recuperado el 5 de Octubre del 2012 de
http://www.diputados.gob.mx/LeyesBiblio/pdf/LGIPD.pdf.
[3] Contreras Rivas Lizbeth Yesenia (2012). Halconix para Personas con
Discapacidad Visual. Xalapa, Veracruz, México: Universidad Veracruzana.
[4] Pérez Hernández, C. & Hernández López, R. (2010).Halconix GNU/Linux para la
Universidad Veracruzana. Xalapa, Veracruz, México: Universidad Veracruzana.
[5] Conadis (2010, Febrero). Ley para la Integración de personas con
Discapacidad del Estado de Veracruz Ignacio de la Llave. Recuperado el 5 de octubre
[6] UNAM, (2006). Declaración de Yucatán sobre los derechos de las personas
con discapacidad en las Universidades. Recuperado el 5 de Octubre del 2012 de
http://www.uacj.mx/ddu/Documents/DECLARACION_YUCATAN.pdf
[7] Tiflotecnología y Material Tiflotécnico Recuperado el 10 de Octubre del 2012 de
http://www.juntadeandalucia.es/averroes/caidv/interedvisual/icv/tiflotecnologia_y_ma
terial_tiflotecnico_mym.pdf.
[8] Secretaría de Salud, (2005, Junio). Ley General de Personas con Discapacidad.
Recuperado el 9 de Octubre del 2011 de
http://www.salud.gob.mx/unidades/cdi/nom/compi/ley100605.html
[9] Martínez Tovar, V. D., & Hernández Colorado, H. (2007). Fenix-Arq: distribución
GNU/Linux a medida para la Facultad de Arquitectura de la Universidad
Veracruzana. Xalapa, Veracruz, México: Universidad Veracruzana.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

A Study on the Standards Related to Learning Objects

Markku Karhu1, Concha Batanero2, Salvador Otón3


1
Helsinki Metropolia University of Applied Sciences
Espoo, Finland
E-mail: markku.karhu@metropolia.fi
2
Departamento de Automática, 3Departamento de Ciencias de la Computación
Escuela Politécnica Superior
Universidad de Alcalá
Alcalá de Henares (Madrid), España
E-mail: {concha.batanero; salvador.oton}@uah.es

Summary. This article presents a study on the standards that address the
accessibility of a virtual learning environment. Firstly, the standard
ISO/IEC 24751 describes the process of generating a virtual learning
environment customized according to the preferences of the students,
taking into consideration the metadata of learning objects as a key ele-
ment to the search and selection of the learning object that satisfies
these preferences. Secondly, the standard ISO/IEC 40500 addresses the
recommendation for selecting the success criteria which can be applied
to learning objects. Thus, based on the above mentioned standards, both
requirements how to be realized in an online learning system to meet
accessibility levels or A, AA, or AAA and the way to follow to imple-
ment technical requirements are discussed.

Keywords: accessibility, adaptability, access for all, standard ISO/IEC,


e-learning, guideline, checkpoint, learning object.

1 Introduction

The standard ISO 9241-171:2008 is called “Ergonomics of human-system interac-


tion [1]”. It defines accessibility as the ease of use based on efficient, effective, and
satisfying form of a product, service, environment or facilities by people who possess
different capacities. Based on this definition it can be inferred that an online educa-
tional environment is accessible as long as any person, regardless of their personal
capabilities, can access and exploit the information and published applications effi-
ciently. Over almost two decades of research in the field of e-learning, numerous
definitions of learning object (LO) have been provided; for example, the definition
produced by Willey [2] stands for realism, simplicity and extensive scope of applica-
tion:
"Learning object is any digital resource that can be reused to support
learning"
The base on an e-learning environment lies in their LOs allowing both the presen-
tation and control of information by the student, and in educational activities and
evaluation of learning provided by the activities. This gives a rise to numerous ad-
vantages in learning among which the following ones are the most obvious


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

− It promotes communication, cooperation, and individual and group re-


sponsibility.
− It increases motivation and self-esteem.
− It creates synergy and encourages the development of critical thinking.
− It is possible to connect to the course content from everywhere and any
time.
− The student can review the comments in the forum and the answers of the
teacher as many times as necessary, because they are saved in the plat-
form. In addition, all the students can learn from the answers given to oth-
er students.

In order for everybody to achieve these benefits, the LOs published in this type of
learning environment must be accessible and meet the requirements and recommenda-
tions set for this purpose in the standards. This paper focuses on the study and expla-
nation of the standards that concern LOs, understanding them as Web content on a
platform for online learning.

2 Data Models

The objective of the standard ISO/IEC 24751 - called “Individualized adaptability


and accessibility in e-learning, education and training” - is to present data model so
that the product will satisfy the needs of any person in a context of deficiency, either
personal or environment-related (such as a room with poor lightning or too much
noise), which allows an individual user to choose the desired digital resource if it is
available [3].
To achieve such a goal, it is necessary that the content authors produce alternative
LOs in addition to the original, they must submit the same cognitive content, but
provide different type of sensory perceptions (sight, hearing, touch, etc.), for example
a video as an original resource but providing subtitles (textual perception) and hearing
aid (auditory perception) as adapted resources. That is to say the students specify their
preferences and needs in their user profiles, which will allow them to search the
online platform for available LOs and to select one that matches their preferences
without difficulty.
In this respect, the standard ISO/IEC 24751 defines two patterns of information:
one for the Digital Resources Description (DRD), based on the accessibility metadata,
that should be added to the LOs to facilitate an efficient search [4], and the other, for
the configuration of the Personal Needs and Preferences (PNP) of the student, based
on an interactive form, whose answers give a rise to PNP [5]. Moreover, once gener-
ated, the PNP must be subject to changes by the user, for example due to enhance-
ment, replacement or removal of the description, creating multiple PNP sets for dif-
ferent contents, or transfer of the description to a new system for reuse.
To obtain a correct DRD, the standard establishes the need for the observance of
the basic accessibility guidelines defined in the World Wide Web Consortium's Web
content Accessibility Guidelines. In particular the priorities 1 (level A) and 2 (level
AA) of the WCAG ensure the presentation and control of the text as adjustable. In
order to facilitate this task, a study of these guidelines was carried out to identify the
success criteria directly related to LOs (showed later in table 2).


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

However, due to the complexity of the data models presented in the standard
ISO/IEC 24751 (especially in the PNP data model) and the difficulties experienced in
previous research projects, as it was the case of the EU4ALL project [6], IMS Global
Learning Consortium (institution dedicated to the development of open specifications
for facilitating online learning activities) has prepared a draft of basic specification,
IMS AFA (Access For All) v3.0. This specification contains the main norms of the
ISO/IEC 24751 standard, so that the primary needs of users are covered, and it allows
a faster and more efficient operation.
IMS AFA v3.0 specification information model [7] helps to establish accessibility
metadata to be associated with both the original and adapted LOs and the model de-
fines a set of value space that makes it possible to define each one of them. Accessi-
bility metadata contain information describing the accessibility features of an LO, for
example the sensory mode of access (auditory, tactile, textual, etc.), LO control mode
(keyboard or mouse), identification of the adaptations associated with it or potential
risk of hazard behavior. Different hazard type elements of LOs may be flashes or
sound, etc. For adapted resources it is necessary to include all original metadata of the
resource, adding further specific metadata adaptation, as for example the identity of
adapted resource, type of adaptation (subtitles, long description, and alternative text)
or language of adaptation among others.
Table 1 shows an example of the metadata and the values for a video, as original
resource, and associated captions, as adapted resource.

Table1. Example of IMS AFA 3.0 accessibility metadata for a video and its captions.

Learning objects: video, captions


(deaf or different languages)
Value Value
Metadata (video, ID_1) (captions, ID_1.1)
AccessMode Visual, auditory Textual
HasAdaptation ID_1.1 --
ControlFlexibility FullMouseControl --
DisplayTransformability -- --
Hazard -- --
IsAdaptationOf -- ID_1
• IsPartialAdaptationOf -- ID_1
• IsFullAdaptationOf -- --
AdaptationType -- Captions
AccessModeAdapted -- Auditory
AdaptationDetail -- Verbatim
AdaptationMediaType -- --
LanguageOfAdaptation Spa Spa
EducationalComplexityOfAdaptation --
• EducationalLevelOfAdaptation 4
AtInteroperable False
• ApiInteroperable --

Interoperability has particular importance in the process in two ways: (1) from the
viewpoint of the requirement of assistive technologies which are external to the sys-
tem and (2) from the viewpoint of the process of searching for right resource through
communication between the different subsystems. Figure 1 shows the entire process.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Personal Needs
and Preferences

Interactive
form PNP

Users
Search for the LO
that satisfies the
user PNP Digital Resources
Description

Metadata DRD

Original and adapted LOs

Figure 1. Relationship between the processes taking place in the selection of a resource.

Based on the data model of the user preferences and taking into consideration the
answers to the interactive form, the PNP of the user is generated. On the other hand,
based on the data model for the description of the resources and taking into considera-
tion the LO metadata, the DRD is generated. The next step consists of the execution
of a communication process between both parties (PNP and DRD) for searching and
selecting the LO that satisfies the user PNP.

Use case
To give an example, Airline maintenance staff receives regular training sessions,
but there is always a possibility of the need for "ad hoc" instruction. Available air-
plane resource materials include video instructions on aircraft engine maintenance
that addresses the methods for repairing various engine problems. Usually, the mate-
rial is used in a noisy hangar in which workers are required to wear hearing protec-
tion. There may also be multiple information systems connected to their ear-phones
for safety reasons. In this environment, workers use portable computers to view the
reference materials as they carry out the repair actions.
When workers log in, they indicate the hangar as the context and a PNP file is se-
lected by the system. This profile requires text transcripts or animated diagrams to
replace audio content. When viewing the training videos, the system automatically
retrieves the available text captions or alternative visual content and supplements the
video with them while synchronizing it to the original audio. As a result, the workers
are able to reference videos as they work in the hangar.

3 Web Content Guidelines

The standard ISO/IEC 40500, “Information Technology W3C Web Content Acces-
sibility Guidelines (WCAG) 2.0”, [8] accurately reflects the guidelines published in
the WCAG (Web Content Accessibility Guidelines), version 2.0 in 2008 for the crea-


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

tion of accessible Web content, being raised to the category of standard. Since then
the guidelines have been widely consolidated by users.
The standard is organized into 12 guidelines or recommendations concerning the
Web page content and navigation as well as the user interface [9]. Success criteria are
established to develop and specify the meaning of each guideline. In total there are 61
success criteria that moreover are useful for checking the correct implementation of
the recommendations.
The guidelines are based on four fundamental principles that should cover Web
content development, so that the Web content is considered accessible. They are the
following:

1. Perceivable: according to this principle both the user interface and the Web
content must be received and appreciated properly by all users.
2. Operable: this principle establishes that both the user interface and navigation
must be operable or controllable by all the users.
3. Understandable: through this principle a need for a correct interpretation of
the content and user interface is declared.
4. Robust: this principle requires the Web content to be compatible with current
and future technologies.

In turn, the verification points that are shaping the guidelines are classified in a hi-
erarchy according to their accessibility level at 3 different levels, known as A, double
A or AA and triple A or AAA, with priorities low (or priority 1), middle (or priority
2) and high (or priority 3) respectively.

1. Level of accessibility A: indicates the success criteria required to be fulfilled


by the Web developer so that certain groups of users can access the content
of the Web page.
2. Level of accessibility AA: indicates the success criteria required to be ful-
filled by the Web developer so that certain groups of users do not have seri-
ous difficulties to access the content of the Web page.
3. Level of accessibility AAA: indicates the success criteria required to be ful-
filled by the Web developer so that certain groups of users do not have dif-
ficulties to access the content of the Web page.
The hierarchy presented by these requirements determines the legal obligation of
compliance by all contents published on the Web. In this regard, different countries
have adapted their legislation according to the publication of the standards by ISO.
For example, the Spanish law establishes Royal Decree 1494/2007 as mandatory
minimum level of accessibility, compliance regarding priorities 1 and 2 of the stand-
ard UNE 139803:2004, “Computer applications for people with disabilities. Require-
ments of the Web content accessibility” [10]. However, the State Legal Service of the
Ministry of Health, Social Services and Equality determines the legal application of
the norm UNE 139803:2012: "Web content accessibility requirements" that replaces
the previous one, without requiring their incorporation in a Ministerial Order [11].
In Finland the requirements are declared in the Constitution about the equality of
all citizens. Immediate band on discrimination means that no person may be discrimi-
nated against on the basis of disability [12]. Moreover, Ministry of Interior has deter-
mined the Instructions for the Web site design of public administration [13].


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

According to the definition, the LOs are part of the Web content. Table 2 shows
such success criteria that relate directly to the Web content and such that can be con-
trolled by the metadata of LOs. Such success criteria are removed if they are not
controlled by the metadata and are related with the user interface and navigation be-
tween pages.

Table 2. Applicable ISO/IEC 40500 success criteria to LOs [14].

Accessi-
Principle Guideline bility Checkpoint
level
1.1: Text Alternatives A 1.1.1 Non-text Content
1.2.1 Audio-only and Video-only
A (Prerecorded)
1.2.2 Captions (Prerecorded)
1.2.3 Audio Description or Media
Alternative (Prerecorded)

1.2:Time-based Media AA
1.2.5 Audio Description (Prere-
corded)
1.2.6 Sign Language (Prerecord-
ed)
1. PERCEIVABLE AAA 1.2.7 Extended Audio Description
(Prerecorded)
1.2.8 Media Alternative (Prere-
corded)
1.2.9 Audio-only (Live)
1.3.1 Info and Relationships
1.3: Adaptable 1.3.2 Meaningful Sequence
A 1.3.3 Sensory Characteristics
1.4.1 Use of Color
A 1.4.2 Audio Control
1.4.3 Contrast (Minimum)
1.4: Distinguishable AA 1.4.4 Resize text
1.4.5 Images of Text
1.4.6 Contrast (Enhanced)
AAA 1.4.8 Visual Presentation
A 2.1.1 Keyboard
2.1: Keyboard Acces- AA 2.1.2 No Keyboard Trap
sible AAA 2.1.3 Keyboard (No Exception)
2. OPERABLE 2.3.1 Three Flashes or Below
2.3: Seizures A Threshold
AAA 2.3.2 Three Flashes
A 3.1.2 Language of Page
3. UNDERSTANDABLE 3.1: Readable AAA 3.1.5 Reading Level

Based on Table 2, which serves as an example, the operation from the checkpoint
Reading Level, accessibility level AAA, belonging to the guideline Readable and
grouped under the principle Understandable, means that if the content is of higher
educational level (higher than secondary education level), then an additional content
of the secondary education level must be provided.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

4 Conclusions

The standard ISO/IEC 40500 has been consolidated through the recommendations
of WCAG 2.0 and is the base of the Web technology both in terms of content and user
interface.
All in all, the analysis has shown that 27 success criteria out of the total of 61 refer
to Web content while the rest are related to the user interface and navigability.
The standards ISO/IEC 40500 and ISO/IEC 24751 are presented as complemen-
tary. On the one hand the first one defines a set of recommendations for developing
accessible Web content, and on the other hand, the second specifies the implementa-
tion procedure to be followed in order to meet these recommendations.
The ISO/IEC 24751 standard is presented as a starting point for an accessible e-
learning; however, it needs a restructuring that simplifies and makes it more efficient
and aligned with reality.
Interoperability is particularly relevant in the process in two ways, from the view-
point of requirements of assistive technologies which are external to the system and
from the viewpoint of the process of searching for the right resource by the communi-
cation between the different subsystems.
The shortage of adapted LOs becomes the biggest challenge to be taken up by in-
stitutions and governments in coming years because it paralyses the whole process.

References

1. ISO 9241-171:2008, Ergonomics of human-system Interaction -- Part 171


Guidance on software accessibility. International Standard Organization,
Geneva, Switzerland (2008)
2. Wiley, D. (2001) Connecting learning objects to instructional design theory:
A definition, a metaphor, and a taxonomy, and The Instructional Use of
Learning Objects, available at:
http://www.reusability.org/read/chapters/wiley.doc
3. ISO/IEC 24751-1:2008, Information technology -- Individualized adaptabil-
ity and accessibility in e-learning, education and training -- Part 1: Frame-
work and reference model. International Standard Organization, Geneva,
Switzerland (2008)
4. ISO/IEC 24751-3:2008, Information technology -- Individualized adaptabil-
ity and accessibility in e-learning, education and training -- Part 3: "Access
for all" digital resource description. International Standard Organization,
Geneva, Switzerland (2008)
5. ISO/IEC 24751-2:2008, Information technology -- Individualized adaptabil-
ity and accessibility in e-learning, education and training -- Part 2: "Access
for all" personal needs and preferences for digital. International Standard Or-
ganization, Geneva, Switzerland (2008)
6. EU4ALL: Accessible Lifelong Learning for Higher Education. Proyecto eu-
ropeo encuadrado en el sexto programa marco sobre tecnologías de la socie-
dad de la información. http://www.eu4all-project.eu/
7. IMS Access For All Version 3.0 IMS Global Learning Consortium, Inc.
http://www.imsglobal.org/accessibility/


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

8. ISO/IEC 40500:2012 Information technology -- W3C Web Content Accessi-


bility Guidelines (WCAG) 2.0. International Standard Organization, Geneva,
Switzerland (2012)
9. Web Content Accessibility Guidelines (WCAG) 2.0. W3C Recommendation
11 December 2008. http://www.w3.org/TR/WCAG20/
10. Boletín Oficial del Estado. Ministerio de la Presidencia. Real Decreto
1494/2007 de 12 de noviembre.
http://www.boe.es/boe/dias/2007/11/21/pdfs/A47567-47572.pdf
11. Universidad de Alicante. Departamento de Lenguajes y Sistemas Informáti-
cos. Accesibilidad Web. Norma UNE 139803:2012.
http://accesibilidadweb.dlsi.ua.es/?menu=une139803-2012
12. The Constitution of Finland, 11 June 1999, Chapter 2, Section 6.
http://www.finlex.fi/en/laki/kaannokset/1999/en19990731.pdf
13. W3C. Web Accessibility Initiative (WAI). Policies Relating to Web accessi-
bility. http://www.w3.org/WAI/Policy/#Finland
14. W3C Consorcio para la Web. Seminario SIDAR. Fundación Sidar-Acceso
Universal. www.sidar.org/traducciones/wcag20/es/


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Especificación IMS Access for All 3.0

Salvador Otón1, Concha Batanero2, Jaime Alonso, Daniel Jiménez, Pedro Luis Ve-
ga

Departamento de Ciencias de la Computación1, Departamento de Automática2


Escuela Politécnica Superior
Universidad de Alcalá
Alcalá de Henares (Madrid), España
E-mail: {salvador.oton; concha.batanero}@uah.es, rebeljack@gmail.com, djimenezgran-
de@gmail.com, pedrovegaonline@gmail.com

Resumen. Este artículo presenta la especificación IMS Access for All 3.0, la
cual versa sobre adaptabilidad y accesibilidad en los entornos de aprendizaje
electrónico, educación y formación. La norma se centra en la adaptación o per-
sonalización de los recursos de aprendizaje y las interfaces para que satisfagan
las necesidades de los individuos. Su objetivo es dar respuesta a estudiantes con
discapacidad y a las personas que se encuentren en un contexto de deficiencia.
La norma define las necesidades y preferencias personales de los usuarios en
cuanto a presentación, control y contenido y describe los recursos educativos
digitales y la selección de éstos a partir de las necesidades y preferencias ante-
riormente definidas, estableciendo los metadatos de los recursos como parte
importante en el proceso.

Palabras clave: Accesibilidad, adaptabilidad, acceso para todos, especificación


IMS AFA 3.0, e-learning, contexto.

1 Introducción

Se puede hablar del origen de la accesibilidad en el año 1974 con la celebración de la


Reunión del Grupo de Expertos sobre Diseño Libre de Barreras en Nueva York [1],
donde se trató la necesidad social de eliminar las barreras físicas que impiden a un
sector de la sociedad integrarse en ésta en igualdad de condiciones.
Con el advenimiento de las nuevas tecnologías, pieza básica en nuestra sociedad
actual, se impone la actualización del concepto de accesibilidad. Así en ISO 9241-171
[2] se define como la facilidad de uso de forma eficiente, eficaz y satisfactoria de un
producto, servicio, entorno o instalaciones por personas que poseen diferentes capaci-
dades.
En el ámbito de la educación y formación, existen numerosos y diversos estándares
publicados [3], entre los que se pueden destacar las especificaciones de IMS, ISO
9241-171 Software Accessibility, ISO TR 22411 Ergonomics Data and Guidelines to
Address the Needs of Older Persons and Persons with Disabilities, ISO/IEC 24786
Accessible User Interface For Accessibility Settings o W3C ATAG Authoring Tool
Accessibility.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

En este contexto, destaca el trabajo llevado a cabo por el IMS Global Learning
Consortium, que ha desarrollado, por un lado, el estándar IMS AccLIP Accessibility
for LIP [4], que proporciona una forma de especificación de preferencias de accesibi-
lidad y adaptaciones para los usuarios, y por otro, la especificación IMS AccMD
Access For All Meta-data Specification [5], que es una ayuda para la búsqueda de
recursos educativos acordes con las preferencias de accesibilidad declaradas en la
especificación anterior. Estas especificaciones fueron adaptadas en la norma ISO/IEC
24751 [6,7,8] que a su vez dieron lugar a la especificación IMS Access For All 2.0.
En este artículo nos centraremos en la última versión de la especificación IMS Access
For All (AfA) que es la 3.0 [9].

2 Características de la especificación IMS AfA 3.0

La especificación IMS AfA 3.0 pretende promover una experiencia de usuario com-
pleta al permitir la adecuación de las características de los recursos educativos a las
necesidades y preferencias de los usuarios individuales. La especificación AfA consta
de un lenguaje común para describir:
x Necesidades y preferencias de aprendizaje con respecto a la forma en que el
alumno puede interactuar mejor con los recursos digitales, incluyendo la con-
figuración de tecnologías de asistencia. y que se representan mediante la es-
pecificación IMS Global Access For All Personal Needs and Preferences
(PNP) v3.0.
x Recursos de aprendizaje digitales. Son representados mediante la especifica-
ción IMS Global Access For All Digital Resource Description (DRD) v3.0.
La especificación AfA DRD se usa en combinación con la AfA PNP que propor-
ciona un medio para describir cómo un usuario desea acceder a los contenidos de
aprendizaje online y aplicaciones relacionadas. Esta parte de la especificación AfA
está destinada a describir los aspectos de recursos digitales o un sistema informático
que se puede ajustar para mejorar la accesibilidad.
La especificación AfA PNP está destinada a satisfacer las necesidades de los alum-
nos con discapacidades y de cualquier persona en un contexto incapacitante para sí
misma. El propósito de la especificación AfA PNP es proporcionar un método de
lectura mecánica para expresar las necesidades y preferencias del usuario en lo que
respecta a la educación o el aprendizaje digital. La especificación AfA PNP se puede
utilizar de forma independiente, por ejemplo, para entregar la interfaz de usuario re-
querida o deseada para el usuario, o en combinación con la especificación AfA DRD
para entregar recursos digitales que satisfacen las necesidades de un usuario y sus
preferencias.
Los objetivos que persigue la especificación son los siguientes:
x Su simplicidad y facilidad de comprensión.
x Permitir la modificación para facilitar los cambios de requisitos y las necesi-
dades de las organizaciones que requieran algunas partes del modelo. En fu-
turas versiones se apoyará en las tecnologías de Web Semántica.
x Facilitar la integración con otros metadatos y especificaciones.
x Facilitar la integración con estándares aplicados a las propiedades de los dis-
positivos.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

x La norma debe relacionarse adecuadamente con agentes de usuario, APIs de


accesibilidad y los estándares de accesibilidad orientadas a la productividad.
x La adopción generalizada dentro de los marcos de trabajo (frameworks) y he-
rramientas de accesibilidad promoverá un mayor impacto.
Tanto las DRD como las PNP tienen perfiles básicos (Core Profiles), estos utilizan
esquemas para definir un conjunto básico de propiedades, vocabularios y términos. El
propósito en la definición de los Core Profiles es proporcionar un conjunto mínimo de
las propiedades y los términos alrededor de los cuales su conformidad puede ser cons-
truida. Los perfiles básicos no permiten la utilización de elementos de extensión (valo-
res que permiten ampliar la información de los metadatos). Si necesitamos utilizar más
datos podemos utilizar las propiedades y los términos del esquema completo. Por lo
tanto el conjunto de posibles niveles de cumplimiento de la especificación son:
x Perfil básico - la información básica de propiedades, vocabularios y términos
para AfA DRD y AfA PNP.
x Especificación completa (sin extensiones) - soporta todo el conjunto de
elementos del perfil básico añadiendo otros elementos nuevos y refinamiento
de los básicos.
x Especificación completa (con extensiones) - soporta todo el conjunto de
elementos de la especificación completa y permite además la extensión de
elementos o cambios en los vocabularios por defecto.

3 Descripción del Recurso Digital (DRD)

Esta parte de la especificación tiene por objeto facilitar la búsqueda y uso del recurso
de aprendizaje más adecuado a cada usuario, a través de la definición de los metadatos
de accesibilidad, los cuales se encargan de expresar la capacidad de un recurso con el
objetivo de relacionarlo con las necesidades y preferencias de un usuario asociadas
con discapacidades personales y de contexto.
Para obtener una correcta DRD, es necesario que el contenido de un recurso cum-
pla las pautas de accesibilidad básicas definidas en las Directrices de Accesibilidad
para el contenido Web del World Wide Web Consortium [10]. En concreto las priori-
dades 1 y 2 del WCAG aseguran la presentación y el control del texto como transfor-
mables.
La especificación presenta dos categorías de recursos: recurso original y adaptado.
Un recurso original se corresponde con un recurso inicial, mientras que un recurso
adaptado difiere en la forma y mantiene el contenido intelectual del recurso original.
A continuación se presentan las distintas relaciones existentes entre recursos origi-
nales y adaptaciones:
1. Los recursos originales pueden tener cualquier número de adaptaciones.
2. Una adaptación puede ser aplicada a más de un recurso original, aunque se
requiere DRD para cada una de las adaptaciones.
3. Una adaptación puede ser derivada de otra adaptación y en ese caso, ambas
deben ser definidas como adaptaciones del recurso original.
4. Las adaptaciones pueden ser utilizadas para reemplazar a un recurso original
o bien para ampliarlo. Usualmente, un recurso y su adaptación están separa-
dos, no obstante, en algunos casos, un recurso original contiene una adapta-
ción suplementaria.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

5. Las adaptaciones pueden ser, o no, alternativas completas a un recurso origi-
nal.
6. Una adaptación siempre debe indicar los modos de acceso que soportan.
7. Un recurso original que contenga una adaptación (vídeo y subtítulos) debe
indicar en sus metadatos la DRD original y de la adaptación.

Fig. 1. Descripción Digital del Recurso (DRD)

La figura 1 ilustra las propiedades de accesibilidad de un recurso (denominadas


atributos) y cómo se relacionan entre sí. Estas propiedades en última instancia son
utilizadas por un sistema de búsqueda de recursos para ofrecer una experiencia de
usuario personalizada, accesible al emparejar los recursos etiquetados por las propie-
dades del recurso DRD a los requisitos de un usuario tal como se expresan en la PNP.
Como se aprecia en la figura se distinguen aquellas propiedades que forman parte del
perfil básico (Core Profile) y aquellas que pertenecen a la especificación completa.

3.1 Descripción de las propiedades del DRD

A continuación explicaremos cada una de las propiedades (metadatos) de las DRD.

Atributo Descripción
accessMode Un modo de acceso a través del cual el contenido
intelectual de un recurso descrito o adaptación es
comunicado, si se conocen las adaptaciones del
recurso, los modos de acceso de esas adaptaciones
no están incluidos.
accessModeAdapted El modo de acceso del contenido intelectual del
recurso origen de la presente adaptación.
adaptationDetail Características más detalladas de uno o más
valores de tipo de adaptación.
adaptationMediaType Identifica el tipo de contenido audiovisual del
recurso descrito, para los tipos de contenidos
audiovisuales de uso común a las modalidades
agregadas o funcionalidades.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

adaptationType Naturaleza o género de la adaptación.


apiInteroperable Indica que el recurso es compatible con la API de
accesibilidad referenciada.
atInteroperable El recurso es compatible con las ayudas técnicas.
El ajuste de los metadatos del recurso indica el
cumplimiento de las WCAG 2.0
controlFlexibility Identifica un método de entrada única que es
suficiente para controlar el recurso descrito.
displayTransformability Indica una característica de visualización del
recurso descrito que se puede modificar mediante
programación.
educationalComplexityOfAdaptation Identifica si el recurso es simplificado o enrique-
cido con relación a otro recurso que presenta el
mismo contenido intelectual.
educationLevelOfAdaptation El nivel educativo para el que está destinado el
recurso descrito.
hasAdaptation Identificador de un recurso que es una adaptación
para este recurso.
hazard Una característica del recurso descrito que no
debe ser entregado a algunos usuarios, por riesgo
de convulsiones.
isAdaptationOf Identificador de un recurso para el que es una
adaptación.
isFullAdaptationOf Un recurso para el que el recurso descrito propor-
ciona una adaptación completa.
isPartialAdaptationOf Un recurso para el que el recurso descrito propor-
ciona una adaptación parcial.
languageOfAdaptation El idioma del contenido intelectual del recurso
[ISO 639-2:1998] y [RFC4646].

4 Necesidades personales y preferencias (PNP)

La especificación muestra un modelo común de información para definir y describir


las necesidades y preferencias del estudiante o usuario con discapacidad o que se
encuentre en un contexto de discapacidad. Un contexto de un usuario describe un
conjunto de condiciones en las que podrían aplicarse las necesidades personales y
preferencias (PNP) asociadas. Las condiciones pueden ser ambientales (por ejemplo,
"en la oscuridad"), podrían estar relacionados con la tecnología de las comunicaciones
o de los servicios de información disponibles y específicos (por ejemplo, "cuando una
pantalla Braille está disponible"), o podría referirse a las situaciones sociales (por
ejemplo, "cuando mi profesional de enfermería y cuidados está presente") u otros
escenarios.
Se describe como una declaración de Necesidades y Preferencias Personales (PNP)
del tipo acceso para todos, asociable a una sola persona. Para conseguir tal declara-
ción, se recomienda diseñar un formulario interactivo, cuyas respuestas darán lugar a
una descripción de las necesidades y preferencias del usuario. Una vez generada ésta,
debe ser susceptible de cambios por parte del usuario, por ejemplo para la ampliación,
sustitución o eliminación de la descripción, creación de múltiples conjuntos PNP para
su alternancia, o traslado de la descripción a nuevos sistemas para su reutilización;
todo ello de acuerdo a las necesidades del usuario.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Fig. 2. Las Necesidades Personales y Preferencias (PNP)

La figura 2 ilustra las propiedades de accesibilidad y cómo se relacionan entre sí.


Estas propiedades en última instancia son utilizadas por un sistema de búsqueda de
recursos para ofrecer una experiencia de usuario personalizada; una experiencia acce-
sible al usuario al emparejar los recursos etiquetados por las propiedades de los recur-
sos DRD con las necesidades del usuario.

4.1 Descripción de las propiedades del PNP

A continuación explicaremos cada una de las propiedades (metadatos) de las PNP.

Atributo Descripción
accessModeRequired El modo de acceso que un usuario busca ya sea en
una adaptación o en un recurso original como un
reemplazo para un modo de acceso diferente.
adaptationTypeRequired Naturaleza o género de la adaptación requerida
como reemplazo para un modo de acceso especí-
fico.
atInteroperable Preferencia por los recursos que son compatibles
con las ayudas técnicas.
educationalComplexityOfAdaptation Preferencia por un recurso que es simplificado o
enriquecido con relación a otro recurso que pre-
senta el mismo contenido intelectual.
hazardAvoidance Un recurso que tiene tal característica no debe ser
entregado a un usuario con esta preferencia.
inputRequirements Sistema de entrada individual que es suficiente
para controlar un recurso.
languageOfAdaptation La preferencia por el lenguaje de la adaptación
[RFC4646].


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

languageOfInterface La preferencia por el idioma de la interfaz de


usuario [RFC4646].
adaptationDetailRequired Los detalles finos de uno o más tipos de adapta-
ción requeridos.
adaptationMediaRequired Requisito para un tipo particular de contenido
audiovisual.
educationalLevelOfAdaptation La preferencia por el nivel educativo de la adapta-
ción.

5 Ejemplo de uso de la especificación

Se presenta un escenario de ejemplo en el que se describe el uso de la propiedad 'Ac-


cessMode' de las DRD para determinar lo que debe o puede ser entregado a un usua-
rio. Cuando el contenido se entrega al usuario, tiene uno o varios modos de acceso
específicos. Considere el siguiente escenario:
Recursos: resourceID1 - un recurso con un modo de acceso visual. La DRD para el
recurso incluiría:
accessMode = visual
Adaptación: resourceID2 - un recurso que es una adaptación del primer recurso,
proporcionando una alternativa textual al contenido visual en el primer recurso. La
DRD para el recurso incluiría:
accessMode = textual
accessModeAdapted = visual
isAdaptationOf = resourceID1
Preferencias del usuario: una preferencia de contenido textual en lugar de ser en-
tregado contenido visual, lo cual se expresaría en el PNP del usuario como:
accessModeRequired.existingAccessMode = visual
accessModeRequired.adaptationRequested = textual
En este ejemplo, resourceID2 sería una adaptación adecuada de resourceID1 para
este usuario, sobre la base de las PNP del usuario. El emparejamiento y la entrega del
contenido deberían ser como se indica a continuación:
1. El sistema descubre (a partir de los metadatos de los recursos) que el recurso
original (resourceID1) para ser entregado al usuario tiene contenido visual.
2. El sistema tiene en cuenta las preferencias del usuario y descubre que para
visual, el usuario prefiere textual.
3. El sistema identifica adaptaciones para el recurso. En algunos casos, la DRD
para el recurso proporcionaría una referencia a uno o más recursos
alternativos ('hasAdaptation'). En este caso, no lo hace, por lo que el sistema
tiene que buscar registros de metadatos para encontrar recursos que indiquen
que éstos proporcionan una alternativa a resourceID1 ('isAdaptationOf'). Esta
búsqueda se encuentra el recurso con identificador resourceID2 (y
posiblemente otros).
4. El sistema tiene en cuenta si el atributo 'AccessMode' de la adaptación
identificada proporciona una alternativa textual a la visual. En este caso lo
hace, por lo que puede ser entregado al usuario.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

6 Conclusiones

La especificación se presenta como una herramienta básica e imprescindible para la


implantación de sistemas de formación virtual accesibles, ofreciendo, en base a la
diversidad funcional, la posibilidad de configuración del modo de acceso a la infor-
mación y su conexión con los recursos disponibles.
La especificación hace hincapié en su aplicabilidad a cualquier persona, pues todos
podemos encontrarnos en situación de discapacidad debido a un entorno deficitario.
Así, se refiere no tanto a los estudiantes con discapacidades, como a aquellos estu-
diantes en un contexto de discapacidad, como falta de luz, etc.
Se resaltan como parte importante en el proceso los metadatos de los recursos y su
definición, que permiten localizar los recursos digitales adecuados a las preferencias y
necesidades del usuario. La versión 3.0 analizada en este artículo ha simplificado y
facilitado su utilización considerablemente con respecto a las versiones anteriores
proporcionando mucha flexibilidad en su aplicación. La definición de distintos niveles
de aplicabilidad para la completitud de los metadatos (desde los perfiles básicos a los
completos con extensiones) permite definir todo tipo de detalles tanto para los DRD
como para los PNP. Si los elementos que se presentan en la especificación no se ajus-
ten exactamente a las necesidades de una aplicación concreta se puede hacer uso de
las extensiones, en las que se definan sus disconformidades con una definición alterna-
tiva.

Referencias

1. Arjona, G. Historia de la accesibilidad III (2010). La accesibilidad es de tod@s.


http://laaccesibilidadesdetodos.blogspot.com
2. ISO 9241-171:2008, Ergonomics of human-systen Interaction -- Part 171 Guidance on
software accesibility. International Standard Organization, Geneve, Switzerland (2008)
3. Fabregat, R., Moreno, G. D., Alonso, F., Fuertes, J. L., González, A. L., Martínez, L.:
Estándares para e-learning adaptativo y accesible. Revista Iberoamerica de Educación
Superior a Distancia. V.13:2, 45—71(2010)
4. IMS Learner Information Package Accessibility for LIP. Version 1. IMS Global Learning
Consortium, Inc. http://imsglobal.org/accessibility
5. IMS AccessForAll Meta-data Specification. Version 1. IMS Global Learning Consorti-
um, Inc. http://imsglobal.org/accessibility
6. ISO/IEC 24751-1:2008, Information technology -- Individualized adaptability and acces-
sibility in e-learning, education and training -- Part 1: Framework and reference model.
International Standard Organization, Geneve, Switzerland (2008)
7. ISO/IEC 24751-2:2008, Information technology -- Individualized adaptability and acces-
sibility in e-learning, education and training -- Part 2: "Access for all" personal needs and
preferences for digital. International Standard Organization, Geneve, Switzerland (2008)
8. ISO/IEC 24751-3:2008, Information technology -- Individualized adaptability and acces-
sibility in e-learning, education and training -- Part 3: "Access for all" digital resource de-
scription. International Standard Organization, Geneve, Switzerland (2008)
9. IMS Access For All Version 3.0. IMS Global Learning Consortium, Inc.,
http://imsglobal.org/accessibility
10. Web Content Accessibility Guidelines (WCAG) 2.0. W3C Recommendation 11 Decem-
ber 2008. http://www.w3.org/TR/WCAG20/


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Revisión Sistemática de las Soluciones Basadas en


Tecnología Web Para el Reconocimiento de Voz en
Informes Clínicos

Jesús Victorio Martin1


1
Grupo de Investigación IWT2 (Ingeniería Web y Testing Temprano)
E.T.S. de Ingeniería Informática
Universidad de Sevilla
41012 Sevilla (Sevilla)
E-mail: jesus.victorio@iwt2.org

Resumen. En este articulo se presenta una revisión sistemática sobre el recono-


cimiento de voz mediante servicios web. La actual situación económica mundial
suscita entre las organizaciones, aspectos como la globalización, la búsqueda
constante de una reducción de costes para maximizar los beneficios, aumento de
la productividad así como de la competitividad, y la búsqueda constante de la
mejora y optimización de todos sus procesos de negocio. Por ello, las organiza-
ciones están comenzando a integrar formalmente sus procesos de producción al
reconocimiento de voz mediante entornos web. Sin embargo, esta practica se
queda solo en la definición, siendo posteriormente la orquestación y ejecución
de estos procesos llevadas a cabo manualmente y/o manera unilateral por cada
rol que participa en ellos, lo cual, dificulta y complica el seguimiento de esta in-
tegración en los procesos dentro de la organización. En la actualidad, existe un
amplio abanico de herramientas software para el reconocimiento de voz, inclui-
dos los de servicios web, así como para ejecutar procesos dentro del sistema
operativo. Este motivo junto al hecho de que no se ha publicado ningún estudio
comparativo suficientemente completo y reciente en esta línea, ha motivado la
elaboración de este trabajo fin de master. Este trabajo presenta un estudio del ar-
te de las principales herramientas que existen actualmente en el mercado y las
opciones de software modificado para reconocer la voz y ejecutar procesos en
cualquier tipo de entorno y presenta además un marco comparativo para facilitar
la toma de decisiones en cuanto a que decisiones en cuanto a qué herramienta
utilizar.

Palabras clave: Reconocimiento de voz, voz en salud, voice recognition.

1 Introducción

En la actualidad, la situación económica mundial está dominada por aspectos como la


globalización, que conlleva la deslocalización de las empresas, la búsqueda constante


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

de una reducción de costes para maximizar los beneficios. De hecho, el problema


principal de gran mayoría de las empresas es el no actualizarse o bien predefinirse con
tecnologías innovadoras. Para este tipo de empresas, TIC (Tecnologías de la Informa-
ción y la Comunicación), se puede encontrar bastantes soluciones innovadoras, al
mismo tiempo estas soluciones también son poco testeadas. Por ello se quiere realizar
un estudio en profundidad de las soluciones relacionadas en la terminología móvil que
puedan ser de utilidad a la hora de no disponer del uso de las manos.
El alcance del proyecto transcurre en el entorno clínico sanitario, se quiere hacer
una revisión sistemática sobre aplicativos de reconocimiento de voz mediante servi-
cios web, en el que se pueda diferenciar las herramientas actuales que sea factible una
integración satisfactoria. Una revisión sistemática, Fuensanta G [1], a menudo, se
llama "revisión". Cuando una revisión se esfuerza en la identificación exhaustiva, a
través de toda la literatura de un tema dado, valorando su calidad y sintetizando sus
resultados. Las revisiones sistemáticas hacen referencia al proceso metodológico de la
búsqueda y localización sistemática de toda la información disponible, publicada o
no, con relación a la cuestión planteada sobre la que queremos investigar, así como al
criterio de selección de esta información, valorando y juzgando la calidad de los tra-
bajos encontrados. Es por ello que constituyen un análisis cualitativo de la evidencia
encontrada.
Toda clínica que utilice este tipo de tecnología ahorra en costes de tiempo y perso-
nal, dado que no necesita de una persona constantemente para acudir a la vista de
archivos, como pueden ser, radiografías, historiales clínicos, próximas consultas, etc.
Incorporar esta tecnología implica una renovación en el sistema actual y comporta-
miento con tal sistema.
Actualmente existe un amplio abanico de herramientas que permiten esta integra-
ción con sistemas genéricos, UPC [2], tanto clínicos como en cualquier otro campo.
En este trabajo fin de master se presenta una revisión sistemática de la literatura para
proporcionar un marco objetivo de comparación suficientemente objetivo y completo
como para facilitar la toma de decisiones de cualquier organización en cuanto a qué
herramienta elegir para cada situación.

3 Contenido de la revisión

Se pretende realizar un estudio sobre las posibilidades disponibles en el entorno del


reconocimiento del habla a través de webservices. Después de verificar los aplicativos
que cumplen al menos con unos requisitos (Buen funcionamiento, lenguajes, operati-
vidad, disponibilidad de webservices, etc.) se ha detallado una lista de posibles candi-
datos (aplicaciones), tanto web como de escritorio, en los que veremos su funcionali-
dad en diferentes entornos para poder ofrecer un mejor servicio en este tipo de en-
torno. Se ha requerido una revisión sistemática para la integración del reconocimiento
de voz en entornos sanitarios para historias clínicas dado que tenga la mayor integra-
ción con los sistemas informáticos, así como plataforma de movilidad y de escritorio
sin importar el sistema operativo. Las aplicaciones que han pasado los requisitos, se
les ha vuelto a realizar otras pruebas de funcionalidad y operabilidad en distintos
sistemas operativos para comprobar su completa disposición en la integración del


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

sistema. En este resumen se va a definir a groso modo la comparativa de estos aplica-


tivos así como funcionalidad por la que destaca.
Primero, se va a mostrar el diagrama de proceso sobre el desarrollo que consta del
principio de la funcionalidad de entrada de voz, hasta descifrar lo hablado por la per-
sona usuaria.

Fig. 1. Proceso cover-to-cover de un sistema de reconocimiento de voz (FAQS).

A continuación vemos el resumen descrito sobre los sitemas de reconocimiento.


Sobre el sistema de reconocimiento de Windows 8 se ha descrito que para el uso
habitual de ordenadores de sobremesa o portátiles con este sistema operativo, resulta
muy cómodo, ya que viene bastante integrado con sus aplicaciones internas. Su mayor
defecto es que no ofrece integración con sistemas externos. En cambio el sistema de
MacOS se integra fácilmente con sistemas externos pero su uso es exclusivamente en
inglés.
En entornos de movilidad hemos realizado un test de operabilidad y los resultados
obtenidos fueron que los sistemas Siri de Apple y Google Now de Google son opcio-
nes a considerar para esta evaluación. Tanto Siri como Google Now son ayudantes
personales diseñados para facilitar a la persona usuaria que dispone el terminal, pero
en la comparación realizada Siri, dispone de mayor compatibilidad y opciones de
mejora a la hora de abrir aplicaciones externas. Esto es interesante para integrarlo con
un aplicativo diseñado por el desarrollador por si se quiere un sistema propio.
Como sistemas externos definidos como consistentes para este tipo de revisión se
ha optado por CMU-Sphinx y Nuance, así como la macro de nuance, dragonFly. Estas
herramientas disponen de un desarrollo especialmente atractivo para empresas, así


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

como para cualquier persona. CMU-Sphinx tiene la ventaja de ser software libre así
como de estar desarrollado íntegramente en Java, con lo que para integrarlo con un
sistema externo se podría reutilizar código. También aporta un sistema de movilidad
adaptado a la integración con los terminales tipo Smartphone, su desventaja es que no
puedes “comprar” un Sistema CMU-Sphinx, sino que se tiene que configurar cada
uno a gusto de consumidor sin tener asistencia técnica. En cambio, Nuance, dispone
de un sistema muy competitivo a las demás opciones. Día a día, esta marca se está
especializando en diferentes campos, así como la abogacía como en nuestro caso de
interés, la sanidad. Nuance, dispone de varios sistemas enfocados a la sanidad. El más
interesante es el paquete 360 | development platform. Este paquete está basado tanto
en web como en escritorio y dispone de un sistema de actualización automático. Sus
principales ventajas son la usabilidad del producto y el update del mismo, sus desven-
tajas podemos decir que se basan en el desembolso que puede constar como a gran
escala.
Nuance está mejorando un nuevo paquete llamado IBM Watson. Este paquete es
un sistema de inteligencia artificial que aprende por si mismo y está enfocado a la
sanidad.
Estos sistemas están preparados para trabajar a través de webservices y posible me-
jora con otros aplicativos externos desarrollados por un programador especializado en
el campo del reconocimiento de voz.

3 Conclusiones

Esta revisión nos ha dado la oportunidad de comprender el gran aporte de las posibili-
dades que se encuentran disponibles en el campo del reconocimiento de voz. Dado
que en este caso el sistema a integrar es el de las historias clínicas, lo más recomenda-
ble es el sistema integrado que aporta NUANCE, específicamente el sistema 360 |
development platform. Este sistema nos permite establecer una conexión directa a
través de webservices desde cualquier dispositivo o plataforma de escritorio, ya que
es a través de una plataforma web. Es la mejor manera de adaptar las necesidades de
historias clínicas al sistema integrado de cada laboratorio. Además de contar con su
mejora, en fase de desarrollo, IBM Watson, con total integración con el paquete ante-
rior.

Referencias

1. Fuensanta Meseguer, G:2009, Lectura crítica de un Meta análisis y de una revisión siste-
mática (2009).
2. UPC:2000, Reconocimiento Automático del Habla – Centro de Investigación TALP,
Universitat Politècnica de Catalunya (2000).
3. Pantentdocs, US2009/0259469 A1:2009, method and apparatus for speech recognition –
www.faqs.org (2009).


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Estándares y accesibilidad en el ciclo de creación de


OERs mediante herramientas de autor

Francisco Iniesto1, Covadonga Rodrigo1


1
Departamento de Lenguajes y Sistemas Informáticos,
Universidad Nacional de Educación a Distancia
E-Mail: finiesto@gmail.com, covadonga@lsi.uned.es

Resumen. Las personas con discapacidad tienen y han tenido muchas


desventajas a la hora de integrarse plenamente en la sociedad, no sólo en
cuanto a las limitaciones para el acceso a los servicios generales de la misma,
sino a uno muy importante como es la educación. El desarrollo de la educación
mediante las TIC permite dar muchas esperanzas a personas con
discapacidades. Para ello es necesario producir materiales que sean plenamente
accesibles, la relación de la accesibilidad con los estándares se describe en este
artículo.

Keywords: Accesibilidad, herramientas de autor, recursos educativos abiertos


(OERs), estandarización.

1 Introducción

Las tecnologías educativas han ido evolucionando en las últimas dos o tres décadas,
pero poca consideración en general se ha prestado a garantizar que el software de
aprendizaje pueda sobrevivir el rápido cambio de la tecnología. El nuevo desarrollo
de las TIC se han incorporado a las metodologías educativas, los cambios se han
producido bruscamente y hoy en día cada generación vive una metodología de
enseñanza completamente diferente con una plena renovación en las herramientas y el
proceso de aprendizaje [9].
Las tecnologías TIC han llevado a cada estudiante a desarrollar su proceso de
aprendizaje propio en tiempo, lugar, ritmo y capacidades. Pero en el supuesto caso
de que los recursos no sean accesibles para personas con discapacidad, es
completamente inútil [4]. La atención a la diversidad debe ser realizada de forma
continua, ya que el proceso de aprendizaje es continuo, se debe asegurar un
entrenamiento especial en las TIC para el personal docente y también una rápida
identificación de las necesidades especiales. Las barreras digitales en el aula deben ser
localizadas y también nuevas políticas e investigaciones deben ser llevadas a cabo
para que los estudiantes con discapacidad puedan realizar una carga de trabajo
idéntica a los demás.
A pesar de lo anterior, un tema crítico para mejorar drásticamente la calidad del
proceso educativo es el desarrollo de recursos educativos "online" de alta calidad
[18]. Mejorar la innovación educativa y la investigación, es obligatorio para


desarrollar materiales con contenido de alta calidad y el nivel de accesibilidad de
estos materiales va a marcar la diferencia. Un control preciso debe tenerse en cuenta
durante el proceso de creación, el análisis de las normas existentes para los recursos
de aprendizaje, su nivel de accesibilidad, el desarrollo de nuevas leyes, directivas,
normas, directrices específicas y nuevas herramientas de creación. La aparición de las
herramientas de desarrollo de código abierto de materiales compatibles ha sido una
gran meta alcanzada [10].
En la siguiente sección se muestra la relación entre la normalización y las
condiciones de accesibilidad en el desarrollo de contenidos, la sección 3 explica la
relación de los distintos estándares para crear materiales educativos con la
accesibilidad como punto central, finalmente se ofrecen las conclusiones.

2 Estandarización en el desarrollo del contenido

Desde hace varios años, ha habido una importante necesidad para mejorar la gestión
del conocimiento en el nivel de acceso a la información, así como la experiencia de
gestión. Por lo tanto, cuanto más eficiente sean los sistemas de tratamiento y
recuperación de la información, mejor será el rendimiento y la satisfacción obtenida
por el uso de ella [20].
Hoy en día muchas empresas se dedican a desarrollar software educativo para
crear recursos de aprendizaje, el problema surge al intentar reutilizar esos materiales
con el software de otra compañía. Los materiales se producen con una herramienta de
autor y luego se reproducen en otro (Learning Management System). A menudo, el
proceso no es completo: no estandarizado, los materiales no se pueden mostrar en
diferentes LMS.
Adicionalmente, se han desarrollado muchas maneras distintas para categorizar y
describir el contenido dentro los materiales de aprendizaje basados en ordenador. El
resultado es que el mundo del contenido educativo es algo caótico, y muchos
materiales están siendo infrautilizados.
La misma falta de interoperabilidad la sufren otros aspectos: expedientes de los
estudiantes, listas de estudiantes, descripciones de cursos y otras informaciones
administrativas, grabadas en formatos propietarios en diferentes sistemas de
almacenamiento, haciendo muy complicado o imposible transferirlos entre distintos
sistemas. El crecimiento de internet seguido por el uso de de eoso]TJ -1o4B4.3c6.31cJ -1o4B4vnorh
$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

3. Gestión. El sistema tiene que poder gestionar la información del usuario.
4. Accesibilidad. El alumno tiene que poder acceder a la información en el
momento adecuado.
5. Durabilidad. Los estándares tienen que poder ser durables en el tiempo.

2 Estándares y su relación con la accesibilidad

El contenido e-Learning se encuentra segmentado en distintas capas, cada una de ellas


se puede agrupar en otros grupos más grandes que definen el ciclo de vida del
material educativo [18]. La figura 1 muestra ese ciclo para la creación de contenido
educativo con referencias a los estándares que pueden ser aplicados en cada etapa.

Figura 1. Ciclo de los contenidos docentes en estandarización y accesibilidad.

Creación de contenido accesible. Profesores y alumnos deben estar provistos de


medios específicos para que puedan interactuar con un sistema de e-learning,
independientemente de la discapacidad, el hardware o el entorno. Es deseable que las
partes de hardware y software se puedan ajustar para mejorar la accesibilidad, en
lugar de en el tipo de discapacidad [11]. El objetivo de recurso educativo es el


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

aprendizaje del usuario, los beneficios de cumplimiento de accesibilidad no son sólo


para las personas con discapacidad, sino también para las personas de edad avanzada
y los usuarios en general.
x WAI WCAG (Web Content Accessibility Guidelines). Nos proporciona
unas pautas generales para generar contenido accesible [23].
x AENOR UNE 139803. Es el estándar español para la adaptación del
contenido basado en WAI WCAG con criterios específicos [3].
Metadatos. Los metadatos representan la descripción coherente de los recursos
entre las aplicaciones. Para activar la búsqueda y reutilización del objeto, debe ser
interactivo, accesible, flexible, modular, adaptable, interoperable y, por supuesto,
portable. Todas estas características se especifican claramente en la arquitectura de
metadatos. Si esta arquitectura se convierte en estándar, las normas comunes,
protocolos y modelos se crean para catalogar, indexar, intercambiar o transferir
contenidos educativos digitales.
Una de las contribuciones más importantes ha sido el desarrollo de esquemas de
metadatos para el contenido educativo, armonizadas con las especificaciones de
metadatos IMS.
x DCMI Metadata Terms. Los metadatos de Dublin Core se refieren a los
objetos digitales de información general [6].
x IEEE/LTSC LOM. El estándar para los objetos de aprendizaje [19].
x IMS AccessForAll. Una parte IMS ACCMD 2004 (AccessForAll Meta-
data) se compone de los metadatos asociados que describen las propiedades
de accesibilidad de los contenidos de aprendizaje y las adaptaciones propias
del contenido [13]. La otra parte ACCLIP (Learner Information Package
Accessibility) consiste requisitos funcionales en definidos por el usuario,
típicamente los requisitos para la visualización, el control de la interfaz y
restricciones sobre el contenido en sí [12].
x ISO/ SC36 en su grupo número siete es un interesante proyecto de trabajo
para el desarrollo del enfoque de “acceso para todos” de metadatos para los
perfiles de estudiantes, cuidando la factores diversidad cultural y lingüística.
[15], [15], [17].
Organización y estructura de los datos. Básicamente estándares de
interoperabilidad de los sistemas distribuidos deben ser aplicables en este caso:
x IMS define las especificaciones precisas de los sistemas de aprendizaje
distribuido y la interoperabilidad de las aplicaciones.
x ADL/SCORM, modelo específico para el intercambio de objetos de
aprendizaje, se centra en la capacitación Web y está siendo adoptado por un
número de proveedores de formación y la educación como un estándar útil
para el aprendizaje de contenidos. El objetivo final no es competir con otras
normas, sino reunirlas todas juntas. [1]
Las herramientas de autor. Son las encargadas de crear los contenidos usando
los estándares anteriores y que sistemas de gestión del material (LMS) gestionen
dichos contenidos para ser expuestos en un entorno Web a los usuarios, deben
proporcionar por un lado la mayor flexibilidad y facilidad para que el contenido
creado sea accesible de manera automática y sencilla para el usuario, por otro lado se
debe tener en cuenta que el propio software sea accesible en sí mismo. Para las
herramientas de autor existe:


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

x WAI ATAG. Centrado en producir material Web accesible y muy


relacionado con las pautas WCAG [22].
x AENOR UNE 139802 estándar español centrado en crear herramientas
accesibles [1].
Plataformas educativas. El entorno en la mayoría de los casos está basado en la
Web [5], por lo tanto lo materiales Web presentados por los LMS deben estar
disponibles para todo tipo de usuarios [8], Los materiales se deben ejecutar con el
mismo comportamiento en todos los entornos, tener una interfaz de usuario
consistente y ser fáciles de navegar para que el contenido puede ser fácilmente
accesible y entendido.
x IMS GDALA (Guidelines for Developing Accessible Learning
Applications). Ofrece orientaciones específicas para el diseño y desarrollo de
aplicaciones de e-learning [14]
x AENOR UNE 139802. Al igual que en el caso de las herramientas de
edición, las plataformas de aprendizaje son aplicaciones de software basadas
normalmente en Web, así mismas normas deben ser aplicables [2].

Figura 2. Momentos en los que la accesibilidad es fundamental en el


desarrollo de los contenidos educativos.
Tenemos que distinguir cuatro momentos importantes en el desarrollo de
contenidos educativos en los que la accesibilidad tiene un papel importante y hay
normas que deben seguirse (ver figura 2):
x Los contenidos educativos por sí mismo, los recursos que necesitamos para
el curso desde el principio, en muchos casos contenidos multimedia [21]
x Contenido Web, es el entorno en el que los contenidos educativos se van a
incluir.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

x Los metadatos, que se añaden a un curso y sus recursos por los que pueden
ser localizados en un repositorio.
x Empaquetamiento del curso, es necesario para el intercambio de material
entre los LMS.

3 Conclusiones

Para las personas con discapacidad, un adecuado acceso a los entornos virtuales de
aprendizaje es una herramienta básica de integración. En todo el ciclo de creación de
material educativo hay un punto en el cual se generan los materiales educativos que
van a usar los alumnos, este punto son las herramientas de autor. En este momento de
la generación de material educativo hay que considerar la importancia de que el
mismo sea accesible. Algunos de los puntos que se deben tener en cuenta en el futuro
cercano son:
1. Con el incremento de la atención a los estándares y el desarrollo de los
mismos se debe incrementar la interoperabilidad entre aplicaciones para
poder compartir materiales educativos. Para que dichos materiales sean
realmente interoperables y reusables deben ser accesibles para satisfacer las
necesidades de todos los usuarios.
2. Se deben mejorar las herramientas de evaluación en términos de
estandarización y accesibilidad más allá de las WCAG, que se desarrollen
distintos niveles de adaptación de las herramientas a los estándares.
3. Se deben facilitar herramientas de autor de código libre para las
instituciones, lo cual repercutirá en la involucración de profesorado y
alumnado en la generación de materiales educativos, repositorios de material
y abaratar el coste.
4. En un futuro se debe desarrollar plenamente el “acceso para todos”, de tal
manera se podrán reflejar las preferencias y necesidades de los usuarios sean
cuales sean estas.
Para conseguir estos objetivos sigue siendo imprescindible concienciar en
accesibilidad a todos los actores del ciclo de creación del material educativo, las
herramientas de autor generan buenos materiales pero todavía apenas tienen en cuenta
la accesibilidad, la accesibilidad no está ni estandarizada en el sistema educativo ni
adaptada a la variedad de necesidades del alumnado con discapacidad.

Referencias

1. ADL Sharable Course Object Reference Model 4 Edition. SCORM. VA Advanced
Distributed Learning. (2009).
2. AENOR Asociación Española de Normalización y Certificación. Aplicaciones
informáticas para personas con discapacidad. Requisitos de accesibilidad al ordenador
Software. UNE 139802. (2009).
3. AENOR Asociación Española de Normalización y Certificación. Aplicaciones
informáticas para personas con discapacidad. Requisitos de accesibilidad para contenidos
en la Web. UNE 139803. (2012).


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

4. Besio S., Laudanna E., Potenza F.Ferlino L. Occhionero F. Accessibility of Educational
Software: From Evaluation to Design Guidelines. Proceedings of the 11th international
conference on Computers Helping People with Special Needs. Linz, Austria. People with
Disabilities: Software Accessibility. 518 - 525 ISBN:978-3-540-70539-0. (2008)
5. Cooper M. Accessibility of Emerging Rich Web Technologies: Web 2.0 and the Semantic
Web. ACM International Conference Proceeding Series. (2007).
6. DCMI Dublin Core Metadata Terms. Dublin Core. (2012).
7. Fernández-Manjón B. Moreno Ger, J.L. Sierra Rodríguez, I. Martinez Ortiz. Uso de
estándares aplicados a Tic en educación. Serie informes 16 Educación. Ministerio de
Educación y Ciencia. (2007).
8. García Fernández J. Pautas de accesibilidad al contenido de la Web. Perspectivas de
futuro. Accesibilidad, educación y tecnologías de la información y la comunicación. Serie
informes 17 Educación. Ministerio de Educación y Ciencia. Chapter 6. (2007)
9. García Ponce F.J. Las escuelas inclusivas, necesidades de apoyo educativo y uso de las
tecnologías accesibles. Accesibilidad para alumnos con discapacidad Intelectual.
Accesibilidad, educación y tecnologías de la información y la comunicación. Serie
informes 17 Educación. Ministerio de Educación y Ciencia.. Chapter 1. (2007)
10. Graham Attwell G. What is the significance of Open Source Software for the education
and training community?. Proceedings of the First International Conference on Open
Source Systems. Genova, 11th-15th July 2005 Marco Scotto and Giancarlo Succi (Eds.),
pp.353-358. (2005)
11. Gutiérrez y Restrepo E.,Martínez Normand L., Romero Zúnica R. La accesibilidad Web.
Cómo construir una Web educativa accesible. Accesibilidad, educación y tecnologías de
la información y la comunicación. Serie informes 17 Educación. Ministerio de Educación
y Ciencia. Chapter 7. (2007)
12. IMS ACCLIP Learner Information Package Accessibility for LIP version 1. IMS Global
Learning Consortium. (2004).
13. IMS AccessForAll Meta-data Specification Version 3. IMS Global Learning Consortium.
(2012)
14. IMS GDALA Guidelines for Developing Accessible Learning Applications. IMS Global
Learning Consortium. (2004)
15. ISO/IEC JTC1 SC36 Individualized Adaptability and Accessibility in E-learning,
Education and Training Part 1: Framework. Access For All Framework ISO/SC Special
Group 36. (2008).
16. ISO/IEC JTC1 SC36 Individualized Adaptability and Accessibility in E-learning,
Education and Training Part 2: Access For All Personal Needs and Preferences
Statement. Access For All PNPS ISO/SC Special Group 36. (2008).
17. ISO/IEC JTC1 SC36 Individualized Adaptability and Accessibility in E-learning,
Education and Training Part 3: Access For All Digital Resource Description. Access For
All DRD ISO/SC Special Group 36. (2008).
18. Lara Navarra P., Saigí F., Duart J.M. Accesibilidad y usabilidad como un instrumento de
competitividad y calidad. Conference Lecture. Universitat Oberta de Catalunya. Virtual
Educa Barcelona. (2004).
19. LOM Learning Object Metadata. IEEE/LTSC Learning Technologies Standard Comitte.
(2002).
20. Masie Center Learning Consortium Indistry Report. Making Sense of Learning
Specifications and Standards: A Decision Maker’s Guide to their Adoption. The Masie
Center Learning and Technology e-lab and ThinkTank, Saratoga Springs USA. (2002).
21. Moreno, L., Iglesias A., Martínez, P. and Ruiz B., Accessible interfaces for educational
multimedia contents, Workshop: Advanced Learning Technologies for Disabled and
Non-Disabled People (WALTD) in conjuntion with the 8th IEEE International


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Conference on Advanced Learning Technologies, ICALT 200 Santander, Cantabria,


Spain, July 1st- July 5th, (2008)
22. World Wide Web Consortium W3C, Authoring Tool Accessibility Guidelines
(W3C/WAI ATAG) 2.0, (2012).
23. World Wide Web Consortium W3C, Web Content Accessibility Guidelines (W3C/WAI
WCAG) 2.0, (2008).


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Ontología de sensibilización de contenidos accesibles


para personas con discapacidad sensorial en el Perú

Jimmy A. Rosales H.1, Fredy Campos A.2, Víctor Córdova B.3, José Castillo S.4

Universidad Nacional de Ingeniería, Perú1,3


2
Universidad Nacional Tecnológica del Cono Sur de Lima, Perú
4
Universidad de Alcalá, España
E-mails: jimmyaurelio@yahoo.es 1, f.campos@ieee.org 2, vcordova@uni.edu.pe 3,
4
jluis.castillo@uah.es

Resumen. Según el último censo nacional al menos un 5,2% de la población


en el Perú tienen alguna discapacidad sensorial (sordera o ceguera). Por otra
parte, el despliegue actual de la Televisión Digital Terrestre (TDT) permite
disponer de un medio para desarrollar servicios interactivos vía aplicaciones
que permitan la comunicación ubicua, alertas tempranas, juegos en línea, entre
otros. Con estas consideraciones y a partir de una propuesta previa, en este
trabajo hemos mejorado el desarrollo de una Ontología a fin de modelar los
futuros aplicativos a desarrollar en el Perú para las personas con discapacidad
sensorial. Además de servir, como una herramienta que ayudará en la
búsqueda y recomendación personalizada de contenidos de la televisión para
estas personas a través de la implantación de portales totalmente accesibles.

Palabras clave: Ontologías, Discapacidad Sensorial, Televisión Digital


Terrestre, Web Semántica, Portales Accesibles

1. Introducción
Como se sabe el tamaño de la World Wide Web (WWW) ha crecido de forma
espectacular en los últimos años, lo que ha provocado un incremento notable en la
dificultad de encontrar recursos más interesantes acerca de un tema en concreto,
debido en gran parte, por la ambigüedad de los términos empleados en las consultas
que usan las herramientas de búsqueda. La Web Semántica, denominada a veces
también Web 3.0, bajo la dirección del inventor de la Web original, Tim Berners-Lee
[2], pretende abordar la resolución de este problema, creando para ello un mecanismo
universal de intercambio de información, al añadir a la Web ya existente una cierta
semántica o significado, permitiendo así establecer un mecanismo de procesamiento
automático de su contenido semántico por un ordenador. Para dotar a la Web de un
significado comprensible por los ordenadores, es necesario disponer de una cierta
forma de representar el conocimiento. Tradicionalmente, los sistemas que pretendían
almacenar un cierto conocimiento, lo hacían de forma centralizada, de modo que se
compartiesen los mismos términos donde el tipo de preguntas realizables fuese
fácilmente controlable y restringible. Sin embargo, tomando en cuenta que la Web
Semántica pretende aspirar a una amplia cobertura, tendrá que basarse en un sistema


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

distribuido de representación y almacenamiento del conocimiento, que permita


plantear un número prácticamente ilimitado de cuestiones acerca del mismo [14].
Como solución para la representación distribuida del conocimiento, la Web
Semántica propone la utilización de colecciones de información conocidas como
ontologías. En filosofía, una ontología es una teoría acerca de la naturaleza de la
existencia y de los tipos de cosas que existen. Sin embargo, los investigadores en
Inteligencia Artificial han incorporado este término a su uso particular con el
significado de documento o fichero que define formalmente un conjunto de conceptos
que se organizan de forma jerárquica, y que establece las propiedades y relaciones que
existen entre ellos, a lo que se añade un conjunto de reglas de inferencias que
permiten manipular automáticamente la información [14]. Por otra parte, en
informática, la Ontología hace referencia a la formulación de un exhaustivo y riguroso
esquema conceptual dentro de uno o varios dominios, con la finalidad de facilitar la
comunicación y el intercambio de información entre diferentes sistemas y entidades.
En la actualidad, en el Perú existen pocos programas subtitulados en la televisión
analógica orientados a personas con discapacidad auditiva, solamente en el canal del
estado se suele incluir en sus noticieros un intérprete de lengua de señas y en algunos
programas se coloca el subtítulo a través de teletexto. Además, tampoco se tiene
trabajos de audio descripción en la televisión analógica para personas con
discapacidad visual. Por otra parte, en el Perú, al igual que la mayoría del resto de los
países de Latinoamérica, se ha optado por el estándar SBTVD-T, que es un derivado
del estándar japonés ISDB-T, y viene utilizando un middleware denominado Ginga
[1], lo que obliga a realizar aplicaciones interactivas que consideren la accesibilidad
como un elemento específico a desarrollar. En otros países como en Estados Unidos,
Japón y Europa se están incrementando el número de producciones que incluyen
subtitulado y descripción de audio dentro de los contenidos emitidos por los sistemas
de televisión. Para ello, existen normativas y legislaciones que regulan la materia,
permitiendo acercar a las personas con discapacidad al uso de la televisión digital
terrestre.
En el Perú, el período de transición de la televisión analógica actual a la TDT,
abarcará desde el 2014 al 2020, luego del cual se producirá el apagón analógico.
Dentro de este periodo se vienen desarrollando algunas aplicaciones interactivas
como: en el área de la salud, alerta temprana, voto digital, entre otros, los cuales
contribuirán a incrementar las aplicaciones interactivas para la nueva TDT. Todos
estos trabajos se vienen desarrollando en el Instituto Nacional de Investigación y
Capacitación de Telecomunicaciones (INICTEL-UNI) [15].
El presente trabajo está dividido de la siguiente manera, en la sección 2 presentamos
la descripción del problema en el Perú, en la sección 3 la descripción de la propuesta
para solucionar dicho problema y en la sección 4 las conclusiones finales.

2. Descripción del problema


Siendo la televisión uno de los medios de comunicación de mayor uso en los
hogares, la gran mayoría de sus contenidos no son accesibles para las personas con
discapacidad sensorial, lo cual crea una brecha tecnológica que les impide un acceso
viable a la Sociedad de la Información. Adicionalmente, en el sector televisivo se
realizan pocos esfuerzos para subtitular sus programas y ayudar a las personas con


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

discapacidad auditiva para disfrutar de la experiencia televisiva. Tampoco se cuentan


con canales de audio separados para la banda sonora que ayudarían a las personas
invidentes a recibir información de la experiencia del contenido visual.
La normativa técnica y la legislación son instrumentos necesarios para alcanzar el
objetivo de una Sociedad Inclusiva para todos, siendo la sensibilización social el
primer eslabón de la cadena para alcanzar esta meta. Sin la concienciación de cada
individuo que forma la sociedad y la incorporación del concepto de igualdad de
oportunidades para todos no se puede desarrollar el marco jurídico que proteja esos
derechos. En este campo los medios de comunicación, y la televisión en particular,
desempeñan un papel importante [5].
A partir de los trabajos que realiza la Red Iberoamericana del CYTED denominada
Melisa [10], se tiene información de lo que se está realizando con la implementación
de la TDT y su estándar respectivo en ciertos países de Iberoamérica que enlazan a
dicha red. Por lo que la red constituye en un medio de cooperación para apoyar el
desarrollo de servicios accesibles tanto para la TDT como en internet, permitiendo
detectar, analizar y proponer soluciones a los problemas a los que se enfrentan las
personas con discapacidad en Iberoamérica. Un integrante de esta red es la
Universidad Nacional de Ingeniería (UNI) quien en conjunto con el INICTEL-UNI
han desarrollado una aplicación interactiva para personas con discapacidad sensorial,
a partir de un material subtitulado y audio descrito, constituyendo el primer paso para
realizar otros aplicativos para dichas personas [11].
Una vez implementada la TDT con diversas aplicaciones interactivas, se necesitarán
portales accesibles para las personas con discapacidad sensorial, donde ellas puedan
hacer las consultas del caso y escoger algún material que ellos crean conveniente.

3. Descripción de la propuesta
Cuando se establezca por completo la transición de la televisión analógica a la
digital, se dará lugar a un aumento considerable de los contenidos audiovisuales que
podrá recibir el tele-espectador, y dispondremos de una amplia variedad de servicios
disponibles en Internet. Por ello, a partir del estudio realizado, proponemos modelar
una Ontología para ser usada como base en el desarrollo de la información de
contenidos de los portales accesibles para la televisión analógica y digital terrestre
peruana. Una vez construida la Ontología extraeremos las diversas informaciones
mediante lenguajes de consulta para verificar el correcto funcionamiento, y finalmente
mostraremos estos resultados en un portal dinámico cuyo resultado será la integración
de la información de la Ontología propuesta.
Para la construcción de la Ontología usaremos algunos estándares respectivos, en
nuestro caso la Methontology [6], que es una metodología creada por el Grupo de
Ingeniería Ontológica de la Universidad Politécnica de Madrid (UPM), el cual nos
permite el modelamiento de las Ontologías, siendo esta una de las más completas ya
que toma su creación como un proyecto informático [12]. Los principales pasos a
seguir, son los siguientes:
x Especificación. Se desarrolla un documento que contenga la meta de la
ontología, nivel de granularidad, alcance, propósito. Se identifican los
términos a ser representados, sus características y relaciones.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

x Conceptualización. Se organiza el conjunto de términos y sus características


en una representación intermedia que el desarrollador de la ontología y los
expertos puedan entender. En este paso se construye un glosario de términos,
diagramas de relaciones binarias, diccionario de conceptos, tablas de
atributos instancias, tablas de atributos clases, tabla de axiomas lógicos,
tablas de constantes, tablas de instancias.
x Adquisición de conocimiento. Este paso se lleva a cabo de manera
independiente en la metodología. Su ejecución puede coincidir con otros
pasos. Por lo general la adquisición de conocimiento se realiza en tres etapas:
reuniones preliminares con los expertos, análisis y revisión de la bibliografía
asociada al dominio, y una vez que se tiene un conocimiento base se refina y
detalla el conocimiento hasta completar la ontología.
x Integración. Se identifican las ontologías candidatas a ser reutilizadas en la
ontología que se está construyendo, incorporando aquellas piezas de
conocimiento que sean de utilidad.
x Implantación. Consiste en la codificación del modelo conceptual en un
modelo codificado en lenguaje ontolingua.
x Evaluación. Se realiza un juicio técnico a la ontología, al ambiente de
software asociado y a la documentación con respecto a un esquema de
referencia en cada paso de la metodología. El esquema de referencia puede
ser: requisitos de especificación, preguntas de competencias y/o el mundo
real.
x Documentación. Se detalla clara y exhaustivamente cada paso completado y
los productos generados.

3.1 Construcción de la ontología


El concepto de Ontología se basa en la descripción del mundo real, similar a la
programación orientado a objetos (POO), por lo que nos permite representarlo por
medio de clases, subclases, propiedades, permitiendo construir relaciones entre ellos,
y usar reglas a través del cual puedan funcionar e interactuar. Una Ontología [3] nos
proporciona un vocabulario de clases y relaciones para describir un dominio
respectivo. Actualmente existen diferentes lenguajes para el diseño de Ontologías, el
más reciente estándar dado por la W3C es el denominado como OWL.
La presente Ontología trata del supuesto de que una persona normal o con
problemas de discapacidad sensorial quiera hacer uso de la televisión Por lo tanto, se
intentaría resolver algunas preguntas como: ¿Cómo buscaría sus contenidos?¿En qué
horario se trasmite la serie? Por ello, con el diseño de esta Ontología se buscará
recomendar de forma personalizada una oferta televisiva, que le satisfaga a la persona.
Luego de hacer el análisis del problema, se diseñara la Ontología, conteniendo los
principales conceptos descriptivos del caso, y las relaciones conceptuales existentes.
Por lo tanto, de acuerdo a las necesidades del entorno y en base al conocimiento del
dominio del caso, se plantea la Ontología que conceptualiza el modelo propuesto que
permitirá implementar el portal accesible para ayudar a las personas con discapacidad
sensorial. En nuestro caso para la implementación de nuestra Ontología usaremos el
editor ontológico denominado Protege, esta es una herramienta Open Source


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

desarrollada por la Universidad de Stanford en colaboración con la Universidad de


Manchester [8].La característica de este software es que es muy amigable, basado en
un modelo similar a los sistemas orientados a objetos. Una de las ventajas de esta
herramienta es que:
x Se definen las clases de forma jerárquica.
x Se definen las propiedades de cada clase.
x Se definen los valores permitidos que tiene cada característica.
x Se llenan las instancias, es decir atribuir individuos de una clase determinada.
Además este editor es apoyado por una fuerte comunidad de desarrolladores,
académicos y usuarios que utilizan el editor en diversas aplicaciones. En nuestro caso
no reutilizaremos alguna Ontología existente por la naturaleza del caso, si no que
identificaremos las respectivas Clases, Subclases, Propiedades, Restricciones e
Instancias de nuestro dominio. El código de la Ontología a crear con el editor Protege
es el OWL [7] que es el lenguaje de Ontologías.
A continuación, en los siguientes apartados describiremos las características de la
misma.

3.1.1 Conceptos
x Clases y Subclases
Las clases se entienden como conjuntos o conceptos que contienen individuos u
objetos y que pueden ser organizados en forma jerárquica conocida también como una
taxonomía, a su vez las clases se pueden dividir en subclases las cuales representan
conceptos más específicos de la clase a la que pertenecen. En base al conocimiento del
dominio estudiado, se identificaron los siguientes conceptos principales: Televisión y
Persona a partir de allí se crean los otros conceptos como: digital, analógica,
discapacidad sensorial, normal y así sucesivamente se crean las otras subclases,
según nuestra jerarquía como se muestran en la figura 1.

Figura 1: Taxonomía de conceptos


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

De la taxonomía se entiende que los conceptos digital y televisión son subclases de


la clase Televisión, de la misma manera los conceptos discapacidad sensorial y
normal son subclases de la clase Persona, los demás conceptos están relacionados de
la misma manera en forma jerárquica, se observa que todas estas clases y subclases
son hijas de una clase principal denominada Thing.
x Propiedades
Las propiedades representan relaciones entre dos objetos o individuos, existen dos
tipos de propiedades que se pueden definir, la de objetos y del tipo de datos. La
propiedad de objetos nos permite relacionar un individuo con otro y la propiedad del
tipo de datos [4] nos relaciona objetos con valores tipo dato como son: enteros,
literales, etc. En el caso de las propiedades tipo objeto, estas se caracterizan por tener
un dominio y un rango. Como ejemplo tenemos la propiedad “es escuchada por”,
que define aquellos objetos que puedan escuchar una determinada aplicación.

aplicación es escuchada por ciego


audiodescrita
Dominio Rango

De esta forma, mostramos algunas propiedades identificadas de nuestra Ontología en


la tabla 1.

Propiedad Dominio Rango


es escuchada por aplicación audio descrita ciego
es leída por aplicación subtitulada sordo
es usada digital discapacidad sensorial
escucha ciego aplicación audio descrita
usaría discapacidad sensorial digital
usa poco discapacidad sensorial analógica
leerá sordo aplicación subtitulada
es utilizada televisión normal
utiliza normal televisión

Tabla 1: Propiedades de Objetos

x Restricciones
Con el fin de verificar el funcionamiento de la Ontología e inferir conocimiento se
crean las restricciones, se pueden distinguir tres tipos de restricciones como:
¾ Clases como restricciones
¾ Restricciones de propiedades tipo dato
¾ Restricciones de propiedades de objeto
En nuestro caso utilizaremos restricciones de propiedades de objeto, por ejemplo una
persona ciega solamente escuchará solo una aplicación audio descrita y por lo tanto
una persona ciega solo usaría una aplicación audio descrita, en el Protegé se tendrá:
(véase figura 2).


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Figura 2: Restricción 1
De la misma manera, una persona sorda solamente puede leer una aplicación
subtitulada y por tanto una persona sorda solamente usaría una aplicación subtitulada,
en el Protege se tendrá: (véase figura 3).

Figura 3: Restricción 2
De esta forma, se van generando las diversas restricciones en cada caso, para
finalmente, una vez almacenada la mayor cantidad de instancias se procederá a hacer
las consultas respectivas del caso, una vez validada la Ontología. Como ejemplo
realizaremos una consulta con el Protegé, usando el lenguaje Sparql [9] donde nos
mostrará a todas las personas mayores a 20 años (véase figura 4)

Figura 4: Consultas en el Sparql

3.1.2 Consultas en el entorno de trabajo


Para reproducir toda esta información en una interface o entorno de trabajo
(framework) más amigable, usaremos interfaces de programación de aplicaciones
(API) que permiten el tratamiento de la Ontología en código OWL [7]. En nuestro
caso usaremos el Jena (API de Java), y verificamos la consulta con el fin de obtener
las diversas aplicaciones que contiene nuestra Ontología.

Una vez obtenido todos los resultados correctos con las herramientas de la Web
Semántica [2], que es una extensión de la Web tradicional en la que los recursos tiene
un significado concreto y preciso, creamos el proyecto denominado WebStudio
Discapacidad (Portal prototipo) donde haremos las consultas vía Web en forma


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

sencilla. Por ejemplo hacemos la consulta al portal de “Aplicaciones Subtituladas” y


obtenemos lo siguiente (véase figura 5).

Figura 5: Portal (WebStudioDiscapacidad)


Este portal constituye un prototipo dinámico que se ira enriqueciendo con mayores
aplicaciones y contenidos que se ofrecen en la televisión actualmente.

4. Conclusiones
El presente trabajo constituye una mejora de una propuesta anterior para contribuir
en la búsqueda de contenidos que se emiten en la televisión Peruana [13] con
material audiovisual, dirigido a las personas con discapacidad sensorial. Entre las
principales conclusiones podemos mencionar:
x En base a esta Ontología se diseñará un portal semántico con herramientas de la
Web Semántica, que ayuden a las personas a la búsqueda de contenidos
audiovisuales en la televisión Peruana.
x La ontología permite recomendar de forma personalizada una oferta televisiva a
las personas con discapacidad sensorial y se puede aplicar en nuestra realidad.
x Esta propuesta es aplicable porque nos encontramos aun dentro del intervalo del
apagón analógico.
Referencias
1. Albuquerque De Oliveira Antônio, Lopes De La Cerda João, 2008. A TV Digital no Brasil e o Desenvolvimiento de
Aplicacoes Interactivas para o Middleware Ginga.
2. Berners-Lee, J. Hendler, O Lassila, 2001. The Semantic Web. Scientific American, May 2001.
3. Grigoris Antoniou and Frank Van Harmelen, 2008. A Semantic Web Primer. Massachusetts Institute of Technology.
4. Liyang Yu, 2007. Introduction to the Semantic Web and Semantic Web Services. Chapman & Hall.
5. Utray Francisco. Accesibilidad a la TDT en España para personas con discapacidad sensorial 2005-2007. Imagen
Gráfica. S.A. Gobierno de España, Noviembre 2009. p. 1-2.
6. Corcho Oscar, Fernández Mariano, Gómez Asunción, 2001.Methodologies tools and languages for building ontologies.
Where is their meeting point? Universidad Politécnica de Madrid (UPM).
7. OWL Web Ontology Language Overview. http://www.w3.org/TR/owl-features/
8. PROTÉGÉ Ontology Editor and Knowledge Acquisition System http://protege.stanford.edu/
9. W3C World Wide Web Consortium, 2007. “SPARQL Query Results XML Format “ Retrieved 10/08/2007, from:
http://www.w3.org/TR/rdf-sparql-XMLres/
10. Red Melisa. www.redmelisa.org
12. Solano Javier, Rosales Jimmy, 2012. Mejora de la accesibilidad de personas con discapacidad sensorial utilizando una
aplicación interactiva en la TDT.
13. Guzmán Javier, López Mauricio, Durley Ingrid, 2012. Methodologies and methods for building ontologies.
14. Castillo José, Rosales Jimmy, 2013. Desarrollo de una Ontología para utilizarlo en aplicaciones interactivas de la TDT
Peruana.
15. Universidad de Murcia, 2008. Evaluation in E-learning based on Semantic Web and NLP technologies.
16. Velásquez Christian, Juan Mauricio, Palomino Walther, Diaz Daniel, 2010. Aplicacoes Interactivas Baseadas no Ginga-NCL
para a Area da Saude.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Un enfoque hacia la calidad de la formación virtual en


contenidos abiertos

José-Antonio Gutiérrez-de-Mesa1, Antonio García-Cabot1, Eva García-López1,


Javier Abraham-Curto1 and Maite Gutiérrez Elvar2
1
Departamento de Ciencias de la Computación
Escuela Politécnica Superior
Universidad de Alcalá
2
Departamento de Didáctica y Teoría de la Educación
Facultad de Formación del Profesorado y Educación
Universidad Autónoma de Madrid

{jagutierrez, a.garciac, eva.garcial, javier.abraham}@uah.es, mge2601@gmail.com

Abstract. En este artículo se presenta el estado del arte de la formación virtual


en “Contenidos Abiertos”, se repasa la situación de la formación virtual en las
universidades españolas, los Open Course y los MOOC (Massive Open Online
Course). Finalmente se presenta el primer estándar en el ámbito de la gestión de
la calidad de la enseñanza virtual publicado en España como norma UNE 66181
por AENOR, la “Asociación Española de Normalización y Certificación”. La
importan-cia de cumplir con este nuevo estándar reside en que con su implanta-
ción se pueden medir las características de las acciones formativas virtuales, de
tal forma que la comunidad estudiantil pueda seleccionar aquellos productos
que mejor se adapten a sus necesidades con independencia del nivel de
marketing que los suministradores incorporen en su difusión.

Keywords: Contenidos Abiertos, estándar de calidad, medición de la calidad


en formación virtual.

1 Introducción

La formación en general, y la formación virtual en particular, no son ajenas a la


preocupación existente entre los diversos actores intervinientes en los procesos de
aprendizaje. Las nuevas formas de aprender establecen unas nuevas reglas de juego en
la industria de la enseñanza y los organismos de estandarización se interesan en
unificar criterios y proponer normas y guías universalmente aceptadas que aseguren la
calidad de los productos elaborados y de los servicios realizados en cualquier ámbito
de la sociedad. La aparición de los modelos de aprendizaje basados en Contenidos
Abiertos y en Moocs implican la valoración de un nuevo escenario de referencia
donde se garantice que el usuario no se vea defraudado, después de una pérdida
considerable de tiempo, de la calidad de esa formación virtual por lo que los
estándares internacionales relacionados con la calidad en la formación en general,


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

como la norma ISO 19796-1:2005 [1]. Para comprender este estándar y otros
relacionados con la formación virtual, como la serie ISO 19778 sobre el aprendizaje
colaborativo [2], ISO ha creado recientemente un vocabulario sobre esta materia que
permitirá unificar la terminología en este campo [3].
En este contexto, es habitual que las iniciativas sobre calidad en e-learning
provengan de dos ámbitos diferentes: el ámbito de las tecnologías de la información o
el ámbito de la Gestión y aseguramiento de la Calidad. En el caso del estándar que se
presenta en este artículo, UNE 66181 [4,5], la iniciativa ha partido del Comité
Técnico de Normalización 66, responsable en AENOR de los estándares relacionados
con la calidad en la industria, como por ejemplo ISO 9001 [6]. En el seno de este
Comité se ha creado el Grupo de Trabajo AEN/CTN 66/SC 1/GT “Calidad de la
formación Virtual”, que se ha encargado de la elaboración del estándar.
Dentro de esta nueva norma se especifican las directrices para la identificación de
las características que definen la calidad de la formación virtual con relación a los
potenciales clientes o compradores. La norma permitirá a los suministradores de
formación virtual identificar la calidad de su oferta de una forma clara y reconocida, y
mejorar su comercialización; y a los alumnos y clientes, seleccionar la oferta
formativa que mejor se adecúa a sus necesidades y expectativas. Para ello, establece
un sistema de indicadores de calidad, así como una escala de cinco niveles de calidad
para cada uno de los factores identificados.

2 La Formación Virtual y los Contenidos Abiertos

En el grupo de investigación Tecnologías de la Información para la Formación y el


Conocimiento (TIFyC) de la Universidad de Alcalá se entiende que la formación
virtual (e-learning), según las consideraciones de Rosenberg [7] hace uso de
tecnologías web para ofrecer un grupo de soluciones que permiten mejorar la
adquisición de conocimiento y habilidades, y por tanto han de producirse en red para
que lleguen a los usuarios finales por medios telemáticos que utilizan estándares de
Internet. Así pues las prácticas de e-learning se han de centrar en soluciones de
enseñanza y aprendizaje diferentes a los métodos tradicionales identificados. Así, y
aunque no hay una definición única para definir lo que es la formación virtual,
entendemos como términos equivalentes, con independencia de las diferencias
históricas, los de formación virtual, educación a distancia, autoformación,
teleformación, formación semipresencial y otros términos siempre que, como se
señalaba anteriormente, se hayan producido y se consuman en red y se base en una
formación dirigida y centrada en el estudiante con contenidos en línea, trabajos y
proyectos a desarrollar en la red, con ejercicios de autoevaluación disponibles en los
mismos medios, con referencias bibliográficas disponibles en la nube.
El desarrollo curricular debe de haberse preparado pensando en un diseño
curricular basado en competencias donde se haya basado en una serie de contenidos
suficientemente armonizados para lograr todas y cada una de las competencias fijadas
de antemano en el momento en que se trata de diseñar el curso. Además, dentro del
diseño de los cursos hay que considerar los medios disponibles en la plataforma de las
que no podemos prescindir: correo electrónico privado, foros de debate, calendario,


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

chats y pizarra…Igualmente, dentro de los componentes básicos en la formación


virtual debemos considerar la plataforma LMS (Learning Management System) que
es el entorno de aula virtual que facilita la comunicación del tutor con los estudiantes
y a éstos entre sí, enviar y publicar trabajos, realizar consultas y recabar información
diversa en la red. Todo el entorno debe integrar correo electrónico, chat, web, foros,
ftp y videoconferencia, como ocurre con Moodle, Blackboard, Educa, Intercampus,
etc.
Otro aspecto importante a considerar dentro del diseño de los distintos cursos es el
diseño curricular del curso y materiales didácticos que son los que efectúan la
identificación de objetivos de aprendizaje, selección y la estructuración de los
contenidos, planificación de actividades y experiencias de aprendizaje, criterios y
tareas de evaluación. Tendríamos que considerar el diseño curricular como el
pegamento que estructura y vertebra todo el contenido
El siguiente eslabón a considerar es el profesor o equipo de tutores que
desempeñen las funciones docentes mediante el uso de las TIC y que se ocupan de las
tutorías individuales a través de correo. También realizan las labores de seguimiento
de foros de debate y participación en los mismos, así como la realización de tutoría
grupal, actualización de tablones o boletines, la evaluación de trabajos que se hayan
encomendado, la coordinación con otros profesores del mismo o distinto curso...
Desde este punto de vista la formación virtual es una oportunidad para la
formación centrada en el estudiante que permite las siguientes funciones:
xConexión de estudiantes dispersos geográficamente.
xActualización de contenidos rápida y económica.
xReducción de costos económicos.
xFlexibilidad: rompe la coincidencia espaciotemporal.
xRitmo de aprendizaje marcado por el estudiante.
xNuevos escenarios y posibilidades de aprendizaje.
xExtensión de la formación a un mayor número de personas.
xPosibilidad de combinar recursos multimedia.
xComunicación tutor-estudiante síncrona y asíncrona.
También debemos de considerar que la formación virtual es una necesidad como
complemento a las universidades presenciales pero, según razones expuestas
anteriormente, existe una necesidad de medir su rendimiento porque hay un interés
académico centrado en analizar la evaluación y rendimiento de las prácticas de
educación superior basadas en el uso de tecnologías web ya que las Instituciones han
invertido de forma sustancial en formación virtual y, además, intentan competir en la
calidad formativa que están ofreciendo con esta modalidad. Además los estudiantes y
los participantes de estos sistemas necesitan igualmente criterios para elegir en la
construcción de sus iniciativas formativas y las políticas de apoyo a iniciativas de
formación virtual o de becas para estudiantes, requieren una garantía de calidad de los
estudios.
Pero antes de continuar analicemos brevemente lo que está pasando en el mundo
de la formación virtual y los nuevos paradigmas que se están produciendo.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

3 Contenido abiertos

Comenzaremos por citar los contenidos abiertos conocidos como OpenCourse-


Ware (OCW) impulsados por el Massachussets Institute of Technology (MIT) en
colaboración con la Fundación William and Flora Hewlett y la Fundación Andrew W.
Mellon, en abril del 2001, con el objetivo de facilitar el acceso libre, sencillo y
coherente a los materiales para educadores del sector no lucrativo, estudiantes y
autodidactas de todo el mundo. Esta iniciativa ha tenido tanto éxito que ha sido
emulada por infinidad de universidades que, tras un proceso de validación, publican
sus propios materiales generando sinergias y espacios de colaboración, aunque, en
estos momentos, no se dispone de cifras reales que avalen su seguimiento por parte de
los usuarios. El OCW implica una forma de aprendizaje individual. Es el estudiante
quien lo incorpora a su Entorno Personal de Aprendizaje o, en inglés, Personal
Learning Environement (PLE) como un elemento más que administra en función de
sus necesidades. A diferencia de los cursos reglados, no hay requisitos de acceso,
tutorías ni evaluación.
Una evolución del sistema anterior son los Open Courses , diferenciados de los
OCW básicamente por tener una mayor interacción, fueron inicialmente impulsados
por David Wiley, con el objetivo de dotar de una base sólida al movimiento de
Educación Abierta (Intro Open Ed Syllabus, Introduction to Open Education), .
Equivalen al paso siguiente de los OCW ya que ofrecen interacción síncrona y
asíncrona y permiten la agrupación por afinidades, el trabajo colaborativo, la
adquisición informal de conocimientos y una gestión personal del propio tiempo y
esfuerzo. Los Open Courses, al igual que un curso clásico, tienen un diseño, una
temporización y unos contenidos, sin embargo requieren un mayor esfuerzo de los
estudiantes ya que son ellos y no el facilitador quienes definen la trayectoria de su
aprendizaje. Pese a que se facilitan unos contenidos, este tipo de cursos se basan en la
interacción, es decir, en las conversaciones en el foro y en el intercambio de
materiales, cosa que permite un aprendizaje tanto grupal como colaborativo. Al igual
que en los OCWs, y a diferencia de los cursos reglados, no hay requisitos de acceso,
tutorías ni evaluación.
Los MOOC son la máxima expresión de los Contenidos Abiertos u Open Courses
y una consecuencia de un curso abierto creado por George Siemens y Stephen
Downes: Connectivism and Connective Knowledge (CCK08), al que se inscribieron
más de 2.200 personas y que contó con la con la colaboración de prestigiosos
profesionales del sector como Terry Anderson, Nancy White, Gràinne Conole,
Howard Rheingold, Alec Couros, … Por ejemplo el CCK08 [8] se basó en la
interacción multibanda distribuida en múltiples espacios. El curso era en inglés, en
junio de 2008, fue reconocido e incorporado como el grupo español del curso y pudo
organizar de manera totalmente autónoma diversas actividades, como las conferencias
pronunciadas por George Siemens y Stephen Downes respectivamente en el auditorio
de Uni-Hispana, en Second Life, y que alcanzaron un récord de asistencia dentro del
metaverso español.
Las diferencias de MOOC con el curso formal podemos considerar que en un curso
formal hay un unos objetivos y una temporización estricta. En un MOOC ambos
aspectos son flexibles, en un curso formal se habría necesitado casi un centenar de
facilitadores para atender a más de dos mil alumnos mientras que en un MOOC


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

bastaron dos; en un curso formal es necesario realizar un seguimiento personalizado.


En un MOOC no se pretende seguir ni evaluar la participación de todos y cada uno
sino la del conjunto.
Su desarrollo demostró que dentro de un MOOC:
xAl ser un sistema abierto, surge un orden natural, espontáneo, que facilita
que los estudiantes se agrupen por afinidades y resuelvan problemas
específicos sin la intervención del facilitador.
xEl estudiante ha de ser capaz de elegir y seguir su propio itinerario y alternar
un aprendizaje de carácter individual con el grupal y el colaborativo.
xLa creatividad, al no estar constreñida ni sujeta a evaluación, crece con
libertad y es mucho mayor.
Otro ejemplo a considerar es el caso de Miriadax [9], la plataforma MOOC de
Universia, con 1242 universidades socias y un potencial de 15,3 millones de alumnos
o el catálogo de www.mooc.es sin desperdiciar las ofertas de KHAN ACADEMY
[10], cuyo fundador, Salman Khan, comenzó ayudando a su prima Nadia con una
tutoría en matemáticas a través de videos que subía a Youtube , o de EDX [11],
organización sin ánimo de lucro fundada por la Universidad de Harvard y el Instituto
de Tecnología de Massachusetts (MIT), que ofrece enseñanza diseñada
específicamente para el estudio interactivo a través de la web y que sir-ve de
observatorio para una nueva experiencia de aprendizaje online que refleja su amplitud
de conocimiento. Junto con los cursos online, las instituciones utilizarán edX para
investigar cómo aprenden los estudiantes y cómo la tecnología puede transformar el
aprendizaje, tanto en el campus como en el mundo. edX está basada en Cambridge,
Massachusetts, y es gobernada por MIT y Harvard.
Con estos nuevas formas de aprender nos fijamos en el contenido del estándar
UNE 66181que describimos en el siguiente apartado.

4 El estándar UNE-66181

El estándar pretende mejorar la satisfacción de los clientes de la formación virtual.


El nivel de satisfacción de los clientes de la formación virtual depende de la
diferencia, positiva o negativa, entre sus expectativas iniciales (lo que esperaban) y lo
que han recibido.

Fig. 1. Ciclo de la satisfacción de las necesidades y expectativas


de los clientes de la formación virtual (AENOR, 2012).


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

El modelo de calidad establecido por este estándar se basa en el ciclo de


satisfacción de las necesidades y expectativas de los clientes representado en la fig.1.
Según el modelo de la figura 1, el ciclo comienza cuando aparecen una necesidades
en el mercado que son detectadas, analizadas y utilizadas por los suministradores de
formación como guía para el diseño y desarrollo de la oferta formativa que demandan
los clientes. La formación virtual desarrollada es ofertada al mercado por los
suministradores, de forma que pueda ser analizada por los clientes. La satisfacción de
las necesidades y expectativas de los clientes de la formación virtual está
directamente relacionada con su capacidad para seleccionar la oferta formativa más
adecuada a sus necesidades y a su situación (capacidad, situación económica, etc.).
Los clientes seleccionan la oferta formativa más interesante para ellos, y una vez
recibida la formación, aumentará o disminuirá su satisfacción en función de la
diferencia positiva o negativa entre sus expectativas y lo recibido. De esto se deriva
la necesidad de que la información suministrada en la oferta formativa (fase 2 de la
Figura 1), sea suficiente y clara, de manera que los clientes no desarrollen
expectativas inciertas, ni reduzcan por ello su satisfacción.
Si la información de la oferta ha sido clara y suficiente, la expectativa del cliente y
el resultado obtenido son similares y, por tanto, se produce un retorno de la inversión
en la compra y un aumento de la confianza en el suministrador. Si por el contrario, la
información no ha sido suficiente ni clara, la expectativa del cliente ha podido
distorsionarse con relación a lo que realmente ofrece la formación, y su satisfacción
puede ser inferior a la esperada, lo que conlleva desconfianza hacia el suministrador y
hacia el mercado de la formación virtual.
Con el fin de mejorar la satisfacción de los clientes, este estándar establece un
modelo de calidad basado en una serie de indicadores de calidad que representan
factores de satisfacción de los clientes, cada uno de los cuales se descomponen en
atributos clave sobre los que se puede actuar para mejorar el factor de satisfacción
correspondiente (tabla 1). El nivel de calidad de una acción formativa vendrá
determinado por la combinación del nivel de satisfacción asociado a cada factor.

Tabla 1. Atributos clave establecidos para cada factor de satisfacción.


FACTORES DE SATISFACCIÓN ATRIBUTOS CLAVE
Información Metadatos básicos
Reconocimiento de la formación para Demanda del Mercado
la empleabilidad
Diseño didáctico-instruccional
Recursos formativos y
actividades de aprendizaje
Metodología de aprendizaje Tutoría
Entorno tecnológico-digital de
aprendizaje
Tutorización
Accesibilidad Accesibilidad del hardware
Accesibilidad del software
Accesibilidad de los contenidos
web


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Para cuantificar en qué grado se satisfacen las necesidades y expectativas de


clientes y alumnos, se han establecido cuatro factores de satisfacción críticos: (a)
Información, establece un conjunto de metadatos mínimo que han de suministrarse al
cliente en la oferta de cualquier acción formativa; (b) Reconocimiento para la
empleabilidad, representa en qué medida la formación virtual incrementa la capacidad
del alumno de integrarse en el mercado laboral o de mejorar la posición existente; (c)
Metodología de aprendizaje relacionado con el paradigma y modelo teóricocientífico
de aprendizaje y TIC que utiliza la organización responsable de la oferta formativa
durante el diseño y desarrollo de la capacidad de la acción formativa virtual para
estimular al usuario con el fin de entender los contenidos y favorecer el aprendizaje; y
(d) Accesibilidad, factor que trata de cuantificar en qué medida la formación virtual
puede ser comprensible, utilizable y practicable con eficiencia y eficacia por
cualquier persona.
En el estándar, los factores de satisfacción se presentan en una graduación de 5
niveles de calidad. La escala va desde el nivel 1 “INICIAL” hasta el nivel 5
“EXCELENTE”, con objeto de que los clientes y usuarios posean mayor información
sobre la oferta formativa y pueda ser comparada. Para alcanzar un nivel se deben
cumplir todos los requisitos especificados en él y además los de los niveles anteriores.
Los clientes pueden utilizar esta norma para comparar la oferta formativa con los
niveles de calidad sobre el grado de empleabilidad que le aportará la acción
formativa, el grado de facilidad de asimilación y el grado de accesibilidad; además de
otra información general de utilidad. De esta forma, el cliente obtendrá una valoración
global del nivel de satisfacción que le puede proporcionar la oferta formativa y, por
tanto, seleccionar la que más se adecúa a sus necesidades y expectativas.
El estándar está orientado para su aplicación en el caso de la enseñanza virtual no
reglada, aunque por su generalidad puede extenderse su uso a otros sistemas
educativos, incluido el universitario, en los que se lleven a cabo acciones de
formación virtual, tanto en modalidad de autoformación, teleformación, o formación
mixta, pero en los Contenidos Abiertos, donde el profesor no se ocupa del
seguimiento directo de cada alumno, necesita una reflexión para ser revisado.

5 Nuevos aspectos a considerar en la revisión del estándar UNE-


66181

Como comentábamos anteriormente los cursos basados en sistemas Open Course o


MOOC, a diferencia de los cursos reglados, no tienen requisitos de acceso, tutorías ni
evaluación, se basan en la colaboración entre estudiantes y no tienen un orden natural;
esto contradice ligeramente el estándar UNE 66181 en los siguientes aspectos:
xNo se produce una compra directa del curso.
xNo hay un reconocimiento de la formación en sí.
xDirectamente no incide en la empleabilidad.
xNo se exige que el profesor corrija los ejercicios en un periodo determinado
de tiempo.
xLos estudiantes, antes de comenzar el curso, no reciben asesoramiento sobre
si están debidamente preparados y motivados para trabajar a distancia.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

xLos alumnos, normalmente, no reciben información ni formación práctica


para aprender a conseguir materiales a través de bases de datos electrónicas,
préstamo interbibliotecario, archivos institucionales, news privadas, etc.
No obstante la Fundación Tripartita Española, en su publicación de 2013 [12], dice
que hace falta una normativa de calidad pedagógica en la elaboración de contenidos
educativos digitales multimedia y que la Administración debería extender
certificaciones de calidad. ¿Quiere esto decir que la Administración debería
completar, mediante un sistema de certificación, la calidad de los cursos abiertos?
La realidad es que hay muchas universidades y centros de formación interesados en
contenidos educativos y muchas iniciativas privadas y públicas para la creación de
estándares de calidad que completen el ciclo de los Contenidos Abiertos y MOOCs,
en realidad están pensando en la posibilidad de extender certificaciones que acrediten
el conocimiento con independencia de cómo ha aprendido el alumno. Sin embargo
AENOR ha adaptado el estándar ISO 19796 [13] para ofrecer una certificación de la
calidad que se completa en parte con la norma UNE 66181[14] que permitirá a los
proveedores de formación virtual identificar la calidad de sus productos y servicios, y
a los clientes, seleccionar aquella oferta que mejor se adapte a sus expectativas siendo
la Educación Superior una de las posibles candidatas de mayor magnitud.

6 Conclusiones

La norma UNE 66181 pretende ser una guía para identificar las características de
las acciones formativas virtuales, de forma que los compradores de formación virtual
puedan seleccionar los productos que mejor se adapten a sus necesidades y
expectativas, y para que los suministradores puedan mejorar su oferta y con ello la
satisfacción de sus clientes o alumnos. A partir de los debates llevados a cabo en los
eventos en los que se ha presentado la norma, de las opiniones recogidas durante el
periodo de información pública y de los resultados del proceso de validación, se
puede deducir que la norma, de voluntario seguimiento, será ampliamente utilizada
por los agentes participantes en el mercado de la formación virtual; lo cual, si
efectivamente así ocurre, aumentará la transparencia y la confianza en la calidad de la
formación virtual sobre todo si se toman en consideración los aspectos mercados en el
párrafo anterior. Como reflexión final se manifiesta que hay un magnifico campo de
investigación en esta materia y que el Grupo de Investigación de la Universidad de
Alcalá quiere hacer esta investigación en red.

Referencias

1. ISO/IEC 19796-1:2005, Information technology -- Learning, education and training --


Quality management, assurance and metrics -- Part 1: General approach.International
Standard Organization, Geneve, Switzerland (2005).
2. ISO/IEC 19778:2008, Information technology -- Learning, education and training --
Collaborative technology. International Standard Organization, Geneve, Switzerland
(2008).


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

3. ISO/IEC 2382-36:2008, Information technology -- Vocabulary -- Part 36: Learning,


education and training. International Standard Organization, Geneve, Switzerland (2008).
4. UNE 66181:2012, Gestión de la calidad. Calidad de la Formación Virtual. AENOR:
Spanish Association for Standardization and Certification, Madrid, Spain (2012).
5. Rivera, E., Orbea, T. “Cómo seleccionar la formación .com”, UNE: boletín mensual de
AENOR, no. 228, pp. 14-19, 2008.
6. ISO 9001:2000, Quality management systems -- Requirements. International Standard
Organization, Geneve, Switzerland (2000).
7. Marc J. Rosenberg (2001). New York, NY: McGraw- Hill Companies, Inc., (2001)
8. CCK08. Disponible en https://sites.google.com/site/themoocguide/3-cck08---the-
distributed-course (Último acceso 2 julio 2013)
9. MiriadaX, Moocs de Universia disponible en http://miriadax.net/ (Último acceso 2 julio
2013)
10. KHANACADEMIC, se pueden obtener referencias en wikipedia, dirección URL
http://es.wikipedia.org/wiki/Khan_Academy (Último acceso 2 julio 2013)
11. EDX, disponible en http://www.edx.org (Último acceso 2 julio 2013)
12. Informe Fundación Tripartita para el Empleo (2003), disponible en
http://www.fundaciontripartita.org/almacenV/publicaciones/documentos/18028_8686200
594320.pdf (Último acceso 2 julio 2013
13. ISO 19796. Information technology --Learning, education and training-- Quality
management, assurance and metrics--. Disponible información de contenidos e índices
generales en http://www.iso.org/iso/catalogue_detail?csnumber=33934 aunque para
descargarse la norma completa es necesario hacer un pago. (Último acceso 2 julio 2013)
14. UNE 66181: Gestión de la calidad. Calidad de la formación virtual (2012). Disponible
parcialmente pero con la posibilidad de compra total en
http://www.aenor.es/aenor/normas/normas/fichanorma.asp?tipo=N&codigo=N0049661
(Último acceso 2 julio 2013)


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

El papel de los videotutoriales accesibles en el


aprendizaje del futuro

Luis Bengochea1, José Amelio Medina1

1
Departamento de Ciencias de la Computación
E.T.S. de Ingeniería Informática
Universidad de Alcalá
28871 Alcalá de Henares (Madrid)
Email: luis.bengochea@uah.es, MRVHDPHGLQD#XDKHV

Resumen. La utilización de tutoriales audiovisuales de corta duración


constituye un recurso formativo de gran atractivo para los jóvenes estudiantes,
ampliamente familiarizados con este tipo de formato similar al utilizado en
YouTube. Denominados por muchos autores como píldoras formativas, se trata
de pequeñas piezas de contenido audiovisual diseñadas para complementar las
estrategias tradicionales de formación. Su inclusión en cada una de las unidades
de aprendizaje que componen los modernos cursos MOOC (Massive Open
Online Courses) y que constituyen una de las características fundamentales de
este tipo de cursos, ha aumentado su popularidad y su utilización en todo tipo
de cursos virtuales. Sin embargo, este tipo de material multimedia, a diferencia
de otros materiales didácticos clásicos, plantea algunos problemas nuevos de
accesibilidad que es preciso tomar en cuenta. Se hace por ello necesario que los
autores de contenidos formativos multimedia puedan dotarles de las
características necesarias para satisfacer las necesidades de los estudiantes con
algún tipo de discapacidad.

Palabras clave: e-learning, accesibilidad, videotutoriales, MOOCs

1. Introducción

Que las tecnologías de la información y de las comunicaciones (TIC) han promovido


en los últimos años, un movimiento extraordinario hacia la innovación pedagógica, se
encuentra ampliamente recogido en la innumerable cantidad de artículos científicos y
de ponencias en congresos nacionales e internacionales que parecen acelerar su ritmo
para acercarse al que marcan los progresos de la propia tecnología.
Hablar, en este contexto, del futuro del e-learning, o de cualquiera de los aspectos que
lo conforman es, cuando menos, atrevido. No es por tanto intención de este artículo
realizar ninguna predicción hacia un futuro más o menos lejano, sino poner énfasis en
lo que se vislumbra en un horizonte próximo, con el objetivo de tratar de reflexionar
acerca de cómo podemos adaptarnos a los cambios que vienen y dirigir nuestros
esfuerzos en la dirección correcta.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

En los últimos veinte o más años, la informática y sobre todo internet, han
modificado por completo la forma de relacionarse las personas con la información
que necesitan para resolver sus problemas cotidianos, aprender, desarrollar sus
aficiones, relacionarse con la sociedad y con otras personas, etc.
Para las personas de cierta edad, estos cambios han sido asimilados como mejoras en
unos procesos que ya se venían realizando anteriormente, pero que han sido
facilitados y potenciados extraordinariamente, así por ejemplo, la necesidad de
desplazarse a una biblioteca para consultar la bibliografía necesaria para realizar un
trabajo o resolver un problema, se hace ahora desde un teléfono móvil, o un
estudiante de una universidad a distancia, que tenía que enviar sus trabajos escritos en
papel, por correo y esperar su calificación por el mismo medio, ahora utiliza una
plataforma LMS (“Learning Management System”), desde la pantalla de su ordenador
doméstico, para todas las tareas concernientes a las asignaturas que está cursando.
En un principio, aunque bien entrados en la época de generalización del uso de
internet, los cambios se limitaban a la presentación de los contenidos y al diálogo y la
comunicación [1]. Así, el primer gran tipo de tecnología que fue adoptado, el primer
sistema de gestión del aprendizaje (LMS), fue originalmente llamado "World Wide
Web Course Tools" (o WebCT, como fue conocido más tarde). Los elementos
educativa clásicos, como el libro, el bloc de notas, la pizarra o el profesor, fueron
todos emulados o facilitados en WebCT.
Sin embargo, como señala Cabero [2], la importancia del e-learning no se
encuentra en su dimensión técnica, sino en los cambios que ha producido ya en
variables como la forma de presentar los contenidos, el papel de profesores y
estudiantes en el proceso o las estrategias didácticas utilizadas.
Para muchos de los jóvenes que están accediendo en estos momentos a nuestras
universidades ya no se puede hablar de cambios, porque en sus actividades cotidianas
y en los procesos de enseñanza-aprendizaje que han vivido en sus anteriores etapas de
formación, no se han producido esos cambios: las TIC han estado presentes desde que
tenían uso de razón, en mayor o menor grado.
Nuestros estudiantes consumen información en múltiples formatos: videos, música,
series de televisión, realidad aumentada, juegos, fotos, textos, whatsapps, etc… de
múltiples fuentes: redes sociales, web, prensa, radio y televisión a la carta, colegio,
apps educativas, etc… y en múltiples soportes: ordenadores, pantallas de televisión,
tabletas, teléfonos móviles, etc…
Además, con esos mismos dispositivos producen su propia información que
intercambian en las redes sociales, ampliando extraordinariamente el círculo de
personas con las que se relacionan.
Todos estos elementos configuran un nuevo escenario que llevarán a cambios
disruptivos en la forma de abordar el proceso de enseñanza-aprendizaje en los centros
educativos a corto plazo. Siemens y Downes plantearon hace pocos años, una nueva
teoría del aprendizaje: el conectivismo. Más allá de las tres grandes teorías clásicas
del aprendizaje: conductismo, cognitivismo y constructivismo, pertenecen a una
época en la que el aprendizaje no había sido impactado por la tecnología. En los
últimos veinte años, la tecnología ha reorganizado la forma en la que vivimos, nos
comunicamos y aprendemos. Las necesidades de aprendizaje y las teorías que
describen los principios y procesos de aprendizaje, deben reflejar los ambientes
sociales subyacentes [3].


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

El conectivismo es la base teórica del modelo de aprendizaje que subyace en los


modernos cursos online masivos y abiertos, MOOC en su terminología anglosajona
(“Massive Open Online Courses”) que han alcanzado en el último año una
popularidad extraordinaria, hasta el punto que casi todas las universidades del mundo
se han lanzado a producir cursos en esta modalidad.

2. Los videotutoriales en los nuevos cursos

Dejando a un lado ahora, los fundamentos teóricos del conectivismo como forma de
adquisición del conocimiento en las grandes redes heterogéneas de estudiantes que
siguen un curso MOOC, la estructura de los cursos que se están ofreciendo en esta
modalidad por las organizaciones de más prestigio, como Coursera, Udacity o en el
mundo hispanohablante MiriadaX, incluye siempre un video de presentación del
curso (Fig.1) y uno o varios videotutoriales de corta duración, entre diez y quince
minutos, en cada uno de los módulos que conforman el curso.

Fig. 1. Presentación de un curso de Principios de Programación Funcional con Scala


impartido en Coursera en 2013.

Está claro que no es un elemento nuevo que haya aparecido con los MOOCs.
Videos de corta duración, o píldoras formativas como también se les ha llamado, han
estado presentes en entre los materiales educativos usados en cursos de todos los
niveles desde hace muchos años. Se trata de pequeñas piezas de material didáctico,
creadas como objetos de aprendizaje de contenido audiovisual y diseñadas para
complementar las estrategias tradicionales de formación y facilitar la comprensión de
algunos aspectos de la materia curricular que presentan una mayor dificultad de
comprensión para los estudiantes, ya sea por su hondura conceptual como por su
complejidad instrumental [4].
La concepción, diseño y realización de este tipo de videotutoriales difiere de lo que
se ha venido utilizando hasta ahora. Por ejemplo, en la iniciativa OCW (“Open
CourseWare”) de publicar en abierto los contenidos de los cursos impartidos en una
universidad, promovida por el Instituto Tecnológico de Massachusets (MIT), se
graban en video las clases presenciales y se ponen a disposición de cualquier persona


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

subiéndolos a un canal de Youtube (Fig.2). Esta iniciativa ha tenido eco en muchas


otras universidades.

Fig. 2. Una clase magistral de Ingeniería Dinámica grabada en video y ofrecida como parte de
la iniciativa “opencourseware” por el Instituto Tecnológico de Masachusetts [5].

Sin embargo, hay muchas diferencias entre este tipo de videos y los que se están
utilizando hoy en los cursos MOOCs. La principal de todas es la duración del video.
Lo que para un estudiante clásico puede ser considerado como normal: seguir una
clase magistral grabada en video, con una duración aproximada de una hora, desde su
ordenador de sobremesa conectado a internet, no sería factible para un nativo digital
que quiera ver el video en la pantalla de su teléfono inteligente mientras está sentado
en un banco de la calle discutiendo de la materia del curso con unos amigos. Y sin
embargo esta es una situación que se aproxima mucho a la realidad actual.
Ni la duración del video ni los textos escritos que aparecen en él, ni seguramente el
guion que se ha seguido para su realización, son apropiados en el nuevo contexto.
Una de las ventajas de los nuevos videotutoriales propuestos consiste en que
pueden ser realizados de forma autónoma por un profesor, utilizando un equipamiento
informático básico y aplicaciones asequibles y fáciles de utilizar. Dado que su
finalidad es puramente didáctica y su público objetivo los estudiantes de un curso
concreto, no se necesita hacer uso de los medios sofisticados de producción ni de
publicación institucionales.
Cualquier profesor que quiera preparar material docente en forma de
videotutoriales de corta duración tiene a su disposición, hoy día, una amplia gama de
herramientas informáticas, tanto de software libre, como propietario, entre las que
elegir, valorando aspectos como son la calidad de la imagen y sonido en relación con


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

el tamaño de los archivos y puede incorporarlos a sus cursos o utilizar una plataforma
como Youtube para publicarlos en abierto.
A la hora de diseñar y producir un videotutorial deben tenerse en cuenta una serie
de normas a seguir, tanto en el plano didáctico, como en el plano técnico, para
conseguir que sean útiles, amenos y multiplataforma. Muchos autores incluyen este
tipo de recomendaciones [6], entre las que hemos recogido las siguientes:

• Planificarlos con una duración de entre 10 y 15 minutos. En caso de


necesitar más tiempo, repartirlo entre varios videos.
• Elaborar un script de la secuencia de imágenes, el texto, la voz y los gestos
del presentador antes de empezar a grabar.
• Elegir el formato más apropiado para el contenido que se va a tratar: busto
parlante, diapositivas, animaciones, acciones en pantalla, etc. o una
combinación de todos ellos.
• Describir al comienzo lo que se va a aprender en el video.
• Conectar cada pieza nueva de información a la información previa.
• Sincronizar las imágenes, el texto y el sonido.
• Usar un lenguaje sencillo y claro y una voz activa, si es posible.
• Enfocar el contenido de un concepto en forma clara y objetiva, eliminando
todo el material no esencial.
• Centrar la atención en las áreas significativas de la pantalla con el cursor del
ratón o con otras señales visuales.
• Incluir algún cuestionario o algunas preguntas de autoevaluación al final del
video. Las soluciones pueden mostrarse como texto en otra parte.
• No tratar de hacer aparecer como texto escrito en el video, toda la narración
de audio. Incluirlos como subtítulos.

3. Videotutoriales accesibles

A diferencia de otros materiales didácticos clásicos, los videos plantean algunos


problemas de accesibilidad que es preciso tomar en cuenta. Cuando estamos
diseñando un curso que va a ser seguido por cintos o por miles de estudiantes, se
convierte en imprescindible dotar a los videos de los elementos de accesibilidad que
permitan a las personas que presentan algún tipo de diversidad funcional, utilizarlos
sin problemas. Muchas de las plataformas de cursos MOOC, entre ellas MiriadaX, no
permiten subir cursos en los que no se hayan tenido en cuenta todos los requisitos de
accesibilidad para los contenidos didácticos que incluyen (Fig.3).
Las prácticas de accesibilidad para videos están recogidas en la norma de AENOR
UNE 153020:2005, y pueden constar de varios elementos, como una transcripción en
formato texto, subtítulos, audiodescripción o interpretación en lenguaje de signos [7].
En cuanto a los subtítulos, deberá comprobarse que el texto alternativo que se
proporciona está sincronizado con las acciones que se desarrollan en el video y va
apareciendo en la pantalla de reproducción de forma adecuada. Para ello:
a. Los subtítulos se deben corresponder con la banda sonora, incluyendo
diálogos y sonidos.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

b. La cantidad de texto mostrada en pantalla no deberá ocupar más de dos


líneas.
c. El tiempo que permanece mostrado un subtítulo debe ser suficiente para
ser leído con comodidad.
d. El tamaño de la letra debe ser adecuado, así como su color y contraste con
las imágenes en las que se superpone.
Los subtítulos pueden estar guardados en un archivo diferente del que contiene el
video o estar incrustado en los fotogramas del mismo. La ventaja de esta última
opción es que su aparición no depende del reproductor de video que se utilice para
visionarlo. Sin embargo tiene varios inconvenientes que la hacen desaconsejable,
como:
•No permite ocultar/mostrar los subtítulos. Siempre aparecen.
•No permite utilizar subtítulos en varios idiomas.
•No permite la búsqueda por texto de la que disponen algunos reproductores,
que facilita posicionarse en una secuencia concreta de video en la que se
encuentra el texto buscado, dentro de los subtítulos.

Fig. 3. Un videotutorial perteneciente uno de los módulos del curso de “Principios de


Programación Funcional con Scala” impartido en Coursera en 2013, con subtítulos.

Aunque la tarea de añadir subtítulos y leyendas a un vídeo no es del todo sencilla,


tampoco es necesario dejar esta tarea en manos de especialistas, que añadirán coste y
tiempo para tener disponibles los videotutoriales. Un profesor que haya preparado un
videotutorial de corta duración para reforzar un tema que está impartiendo en ese
momento, puede dotarle con subtítulos con una calidad suficiente que lo haga
accesible, tanto a estudiantes con discapacidad auditiva, como a los que tienen
dificultad para la comprensión del idioma hablado en el videotutorial.
Este último aspecto del uso de los subtítulos para facilitar la comprensión de los
diálogos a estudiantes que no tienen un nivel alto en el idioma en que está realizado el


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

video, es un aspecto muy importante en estos tiempos de intercambio de estudiantes


entre países con lenguas diferentes. Sería por tanto un elemento más en la
accesibilidad del video.
Los modernos reproductores de video permiten, además, elegir el idioma de los
subtítulos. Añadiendo varios archivos de subtítulos a un video, podemos conseguir
que éste pueda ser utilizado por estudiantes de varios idiomas. Es por lo tanto un
elemento fundamental a la hora de internacionalizar los cursos en los que se utilizan.
Un ejemplo de ello es la Academia Khan Academy [8], una serie de videos educativos
cuidadosamente estructurados que ofrecen completos planes de estudio en
matemáticas y en otros temas, que son ofrecidos con subtítulos y transcripciones en
40 idiomas (Fig.4).

Fig. 4. Salman Khan habla sobre cómo y por qué creó la Khan Academy. El video se
puede visualizar con subtítulos y transcripción en cuarenta idiomas.

Pueden encontrarse en internet innumerables programas que permiten añadir


subtítulos a un video. En unos casos grabando directamente el texto sobre los
fotogramas del vídeo y en otros creando un archivo con el texto y la información de
sincronización con el video. También es posible añadir subtítulos a los videos subidos
a Youtube utilizando las herramientas online que nos proporciona esa plataforma.
Hoy por hoy, es la opción más sencilla y recomendables.
Es conveniente separar los subtítulos en un archivo aparte con objeto de que
puedan ser mostrados a voluntad del estudiante. Los videos con los subtítulos
grabados, pueden provocar rechazo cuando son vistos varias veces. Existen varios
formatos para subtítulos, como ‘SubRip’ (.srt), ‘MicroDVD’ (.sub), ‘Universal
Subtitle Format’ (xml), ‘Substation Alpha’ (.ssa), ‘Advanced Substation Alpha’ (.ass),
etc., aunque hay programas que permiten cambiar de un formato a otro.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

4 Conclusiones

Los videotutoriales de corta duración están llamados a jugar un papel cada día más
importante en el diseño de cursos online como material de autoaprendizaje. Será un
requisito indispensable con el que deberá contar cualquier curso virtual con el que se
pretenda llegar a un número alto de estudiantes. Cada tema o lección deberá contar
con uno o varios videotutoriales que expliquen los elementos fundamentales tratados
y serán el elemento central sobre el que pivoten el resto de recursos didácticos. El
diseño de los videotutoriales deberá permitir su visualización en cualquier dispositivo
y en cualquier entorno. Todos los videotutoriales utilizados en los cursos virtuales
deberán incluir los elementos necesarios para que sean accesibles a todos los
estudiantes sin discriminación. Los profesores de hoy deberán aprender a realizar
videotutoriales accesibles para poderlos incluir en sus cursos, de la misma forma que
ahora preparan sus apuntes como presentaciones de diapositivas o documentos de
texto, para no perder el tren del futuro.

Agradecimientos

Este trabajo ha sido financiado en parte por la Comisión Europea a través del proyecto
ESVI-AL del programa ALFA III.

Referencias

1. Stephen Downes. (2008). “The Future of Online Learning: Ten Years On”. Nov. 2008.An
MS-Word version of this essay is available at http://www.downes.ca/files/future2008.doc
2. Julio Cabero Almenara (2006). “Bases pedagógicas del e-learning”. Revista de Universidad
y Sociedad del Conocimiento. Vol. 3 - Nº 1 / Abril de 2006. ISSN 1698-580X.
www.uoc.edu/rusc
2. George Siemens. (2004). "Connectivism: A Learning Theory for the Digital Age". December
12, 2004. Retrived Sep.2013 from http://www.elearnspace.org/Articles/connectivism.htm.
4. Luis Bengochea.(2011). “Píldoras formativas audiovisuales para el aprendizaje de
Programación Avanzada”. Actas de las XVII Jornadas de Enseñanza Universitaria de la
Informática. JENUI2011. Sevilla. Julio 2011. ISBN:978-84-694-5156-4
5. J. Kim Vandiver. (2013). "R12. Modal Analysis of a Double Pendulum System". MIT
2.003SC Engineering Dynamics, Fall 2011. View the complete course: http://ocw.mit.edu/2-
003SCF11
6. Luis Bengochea, Flor Budia (2012). "Subtitled video tutorials, an accessible teaching
material". Journal of Accessibility and Design for All (CC) JACCES, 2012 - 2(2): 155-164.
ISSN: 2013-7087.
7. AENOR UNE 153020. (2005). "Audiodescripción para personas con discapacidad visual".
Disponible en: http://www.aenor.com.
8. Salman Khan. (2011). “Usemos el video para reinventar la educación”. TED Talks. Filmed
Mar 2011. Retrived Sep.2013 http://www.ted.com/talks/view/lang/es//id/1090


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Criterios para la elección de dispositivos de tecnología


adaptada para estudiantes con discapacidad

Rosario P. Galarza

Secretaria de equidad y género


Unión Latinoamericana de Ciegos (ULAC)
Jirón José Félix Bogado 2652, Lima, Perú
Tel.: 966363967
E-mail: genero@ulacdigital.org

Resumen. El presente trabajo pretende abordar los principales criterios que los
servicios de apoyo a estudiantes con necesidades educativas especiales deben
tener en cuenta antes de recomendar un dispositivo de tecnología adaptada, con
el fin de que la elección realizada sea la más apropiada para satisfacer las nece-
sidades y requerimientos educativos de los estudiantes de acuerdo a su disca-
pacidad. Estos criterios están basados en la guía de la investigación sobre tec-
nología adaptada realizada por la universidad de Wisconsin, así como en mis
experiencias personales como profesional en el área de estudios de discapaci-
dad.

Palabras clave: Tecnología adaptada, discapacidad.

1 Introducción

La Convención de Naciones Unidas sobre los derechos de las personas con discapaci-
dad en su artículo 24 reconoce el derecho a la educación de las personas con discapa-
cidad, y en este sentido hace referencia a los ajustes razonables que se deben realizar
para asegurar que dichas personas puedan acceder a una educación de calidad en
igualdad de condiciones [1].
Asimismo, la ley 29973 de Perú, ley general de la persona con discapacidad que
fuera promulgada a fines de diciembre del 2012, en su artículo 35, reconoce y garanti-
za el derecho de las personas con discapacidad a recibir una educación de calidad con
enfoque inclusivo que responda a sus necesidades y potencialidades en el marco de
una efectiva igualdad de oportunidades [2]. Esta misma ley, en su artículo 39, hace
referencia a que las universidades e institutos de educación superior deberán incluir
asignaturas relacionadas con la discapacidad para la formación de técnicos y profesio-
nales en diversos campos como la educación, la medicina, la ingeniería, entre otros.
desde esta perspectiva, y teniendo en cuenta el rol decisivo que desde hace algunos
años vienen desempeñando las tecnologías de la información y la comunicación en el
acceso a la información de los estudiantes con algún tipo de discapacidad, se hace


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

cada vez más necesario la formación de profesionales de la educación que tengan


conocimientos específicos del uso de la llamada tecnología de apoyo o tecnología
adaptada con la finalidad de orientar a los estudiantes con discapacidad en la elección
de las ayudas técnicas más apropiadas según sus necesidades y potencialidades.

2 Definiciones de tecnología de apoyo o tecnología adaptada

Para fines del presente trabajo se utilizará la definición de tecnología adaptada o tec-
nología de apoyo especificada en la ley de educación de individuos con discapacidad
de los estados unidos (Individuals with disabilities education Act) en la cual se men-
ciona que este término presenta dos grandes vertientes: dispositivos de tecnología
adaptada y servicios de tecnología adaptada [3].
A) Dispositivos de tecnología adaptada. La ley IDEA (por sus siglas en inglés)
del año 2004 define a un dispositivo de tecnología adaptada como cualquier elemento,
pieza de un equipo, software, instrumento o artefacto electrónico que puede ser co-
mercialmente distribuido, adaptado o personalizado y que es utilizado para mantener,
incrementar o mejorar las capacidades funcionales de un estudiante con discapacidad.
Para ser definidos como dispositivos de tecnología adaptada deben de tener un gran
impacto en la capacidad funcional de un estudiante con discapacidad. Por ejemplo:
una tele lupa portable permitirá a un estudiante con baja visión leer una hoja de acti-
vidades en clase, y un sistema de comunicación aumentativa parlante le permitirá a un
estudiante con autismo poder expresar sus preferencias incrementando sus habilidades
de comunicación. Cabe señalar en este apartado que los dispositivos de tecnología
adaptada o de apoyo no incluyen dispositivos médicos implantados quirúrgicamente.
Los dispositivos de tecnología adaptada pueden clasificarse de la siguiente manera:
x Dispositivos de baja tecnología. son aquellos que son fáciles de fabricar, no
requieren ningún tipo de entrenamiento para su uso y son de muy bajo cos-
to. Ejemplos de estos dispositivos son los tableros de comunicación con fo-
tografías y palabras que se utilizan para la comunicación de estudiantes con
autismo.
x Dispositivos de tecnología media. son aquellos que demandan un cierto
grado de complejidad en su fabricación, de fácil manejo y precio razona-
ble. ejemplos de este tipo de dispositivos son las grabadoras digitales, las
calculadoras parlantes, los diccionarios electrónicos, entre otros.
x Dispositivos de alta tecnología. son aquellos que implican un alto grado de
sofisticación en su fabricación, requieren de un entrenamiento especializa-
do y son de alto costo. ejemplos de este tipo de dispositivos son las telelu-
pas para estudiantes con baja visión y las máquinas inteligentes de lectura
para estudiantes con discapacidad visual.
B) Servicios de tecnología adaptada. La ley de educación de individuos con dis-
capacidad define a un servicio de tecnología adaptada, como cualquier servicio que
directamente apoya a un estudiante con discapacidad en la selección, adquisición o
uso de un determinado dispositivo de tecnología adaptada. Ejemplos de estos servi-
cios son los siguientes:


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

x la evaluación individualizada de las necesidades del estudiante, es decir una


evaluación funcional de sus necesidades y potencialidades.
x el apoyo en la adquisición o alquiler de dispositivos de tecnología adapta-
da.
x la selección, personalización, diseño, adaptación, reparación y reemplazo
de los respectivos dispositivos.
x la capacitación técnica al estudiante y, de ser necesario, a la familia en el
uso de los dispositivos finalmente seleccionados.
x la coordinación en conjunto con otros profesionales para decidir terapias al-
ternativas, programas individuales u otras intervenciones que el estudiante
necesite para poder utilizar correctamente los dispositivos de tecnología de
apoyo.

3 Importancia de la selección adecuada de los dispositivos de


tecnología adaptada

Conforme a los criterios empleados en la guía diseñada por la Wisconsin Assistive


Technology Initiative (iniciativa de tecnología adaptada de la universidad de Wiscon-
sin) la evaluación de los dispositivos o herramientas de tecnología de apoyo se basa en
tres procesos importantes [4]:
1. proceso de recopilación de información de los estudiantes. En esta etapa es
indispensable reunir toda la información necesaria sobre cuatro categorías esenciales
como son:
x Información personal del estudiante. En este aspecto el profesional que va a
orientar el proceso de elección del dispositivo de tecnología adaptada debe
tomar en cuenta el diagnóstico del estudiante, su pronóstico, los lugares
donde ha sido educado, el apoyo que le brinda su familia, sus necesidades
educativas y expectativas personales.
x Información de su entorno. en este aspecto el profesional debe tratar de re-
copilar toda la información necesaria sobre el contexto en el que se desa-
rrolla el estudiante como tipo de vivienda, tipo de familia en la que vive, re-
laciones con sus amigos en la escuela, relaciones con sus amigos en la co-
munidad, relación con sus maestros o tutores, etc.
x Información sobre las actividades o tareas que debe realizar y para lo cual
necesita las ayudas tecnológicas. En este aspecto el profesional deberá re-
copilar información sobre las tareas que el estudiante desempeña en clase y
en el hogar, las dificultades que tiene para realizar algunas de ellas correc-
tamente, las razones por las cuales tales dispositivos o herramientas podrían
permitirle superar esas dificultades, etc.
x Herramientas o dispositivos que el estudiante viene utilizando o ha utiliza-
do en el pasado. En este aspecto, el profesional debe hacer un listado de to-
das las herramientas o dispositivos de tecnología adaptada, ya sean de bajo
costo o de alto costo, que el estudiante haya venido utilizando hasta el mo-


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

mento en todo su proceso educativo, haciendo hincapié en las característi-


cas, ventajas y desventajas de cada uno de ellos.
2. Proceso de toma de decisiones. una vez reunida la información necesaria, te-
niendo en cuenta aspectos relacionados con las características y especificaciones del
entorno en donde los usuarios van a utilizar los dispositivos de tecnología adaptada,
sus necesidades y preferencias, los aportes substanciales que dichos dispositivos ofre-
cerían a los estudiantes, así como sus características de fábrica y complejidad de fun-
ciones, se puede tomar la decisión de las herramientas tecnológicas que podrían ser
más adecuadas para el grupo objetivo de usuarios.
3. Proceso de adaptación o necesidad de un tiempo de prueba. En este punto es
necesario tener en cuenta que, una vez que el profesional toma la decisión del disposi-
tivo de tecnología adaptada más apropiado para un estudiante, es indispensable que el
usuario tenga un tiempo de prueba para utilizar los dispositivos sugeridos, a fin de
evaluar si el uso de los mismos provoca algún tipo de fatiga, incomodidad, rechazo o
incompatibilidad con otras herramientas utilizadas por el usuario. Asimismo, el tiem-
po de prueba permitirá establecer si el dispositivo seleccionado tiene una corta o larga
duración, y si en caso de presentar fallas técnicas puede ser o no fácilmente reparado.

4 Conclusiones

El derecho de las personas con discapacidad a recibir una educación de calidad con
enfoque inclusivo en igualdad de condiciones reconocido tanto en el artículo 24 de la
convención de naciones unidas sobre los derechos de las personas con discapacidad,
como en el artículo 35 de la ley 29973, ley general de la persona con discapacidad,
nos plantea el reto de formar profesionales que asuman la tarea de orientar a los estu-
diantes con discapacidad en la adquisición y uso de los dispositivos de tecnología
adaptada más adecuados para incrementar y mejorar sus potencialidades.
Adicionalmente a los factores arriba indicados, existen otras investigaciones que
incorporan nuevos factores como aquellos relacionados con los sentimientos de los
usuarios con discapacidad frente a la tecnología adaptada, el apoyo que la familia, los
amigos y los profesores puedan brindarle para usar los distintos dispositivos, y el
hecho de contar o no con la capacitación necesaria para el uso de los mismos.
La complejidad que implica la elección de un determinado dispositivo de tecnolo-
gía de apoyo nos obliga a pensar en los errores que se cometen actualmente cuando
los profesores de apoyo a la inclusión educativa recomiendan el uso de uno o 2 dispo-
sitivos a un grupo de usuarios con una misma discapacidad, homogeneizando sus
necesidades e ignorando los factores arriba señalados.

Referencias

1. Convención sobre los derechos de las personas con discapacidad. Organización de
Naciones Unidas, 2006. Disponible en:
http://www.un.org/esa/socdev/enable/documents/tccconvs.pdf.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

2. Ley 13649: Ley General de la Persona con Discapacidad. Congreso de la República de
Perú, 2012. Disponible en:
http://www.peru.gob.pe/docs/PLANES/13649/PLAN_13649_Ley_General_de_las_Perso
nas_con_Discapacidad_2013.pdf
3. Individuals with disabilities education act of 2004, 20 U.S.C. 1401-1481. Congreso de
Estados Unidos de América. Disponible en: http://idea.ed.gov.
4. Wisconsin Assistive Technology Initiative, Wisconsin Department of Public Instruction.
Disponible en: http://www.wati.org
5. Male, M. Technology for inclusion: meeting the needs of all students. Boston: Allyn &
Bacon, 2003.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Diseño de un Sistema Web Accesible


de Educación Virtual

José Oscar Gómez Caraballo

Universidad Autónoma de Santo Domingo


República Dominicana
E-mail: jose.gomezcaraballo@uah.es

Resumen. En este artículo mostramos los requerimientos, especificaciones y


pasos para la implementación de un sistema web accesible de educación virtual
en la Universidad Autónoma de Santo Domingo (UASD) en República Domi-
nicana, cuyo fin principal es satisfacer las necesidades de dicha institución
brindando una educación inclusiva para todos de manera que exista igualdad de
condición entre todos los estudiantes independientemente posean o no alguna
discapacidad.

Palabras clave: Educación, universidad, discapacidad, estándares, estudiante,


accesibilidad, sistema, plataforma, tecnología de la información y comunicación
(TIC).

1 Introducción

La Universidad Autónoma de Santo Domingo (UASD) primada de América cuenta


con una población estudiantil de alrededor de 200,000 alumnos activos y con tenden-
cias a crecer cada semestre un 5% aproximadamente lo que le exige ampliar su estruc-
tura física para poder satisfacer sus demandas.
Es la única universidad pública en el país y cuenta con más del 50% de la pobla-
ción estudiantil. La UASD posee un sistema de educación virtual (UASDVIRTUAL)
que ha sido la respuesta a la demanda solicitada y está en fase inicial de implementa-
ción.
UASDVIRTUAL abre sus puertas para dar respuesta a las demandas de los nuevos
tiempos en un momento histórico de acelerado desarrollo e impacto de las Tecnolo-
gías de la Información y la comunicación en la vida cotidiana de personas y pueblos.
La educación bosqueja un nuevo escenario en el proceso enseñanza aprendizaje: la era
digital, mediada por el computador, llega para romper los paradigmas tradicionales y
generar un gran cambio en el modelo educativo, y el advenimiento de nuevas posibili-
dades de comunicación nos permite brindar la oportunidad de difundir el conocimien-
to a través de la Educación a Distancia.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

La Primada de América, cónsona con los tiempos, y con la intención de disminuir


la brecha que aleja a la gran mayoría del beneficio de la cultura, inserta en su oferta
curricular las diferentes modalidades a distancia para ofrecer más y mejores oportuni-
dades a los/as estudiantes que por razones de tiempo, trabajo, distancia, familia se ven
imposibilitados/as de cursar una carrera universitaria de manera sistemática.
El Campus UASD Virtual ofrece a todos sus usuarios una herramienta de comuni-
cación, colaboración y transmisión de conocimientos, que permite superar las barreras
de espacio y tiempo del modelo educativo tradicional. Este espacio virtual les propor-
ciona una diversidad de recursos de aprendizaje e integra las herramientas Web 2.0
para impulsar a los receptores de esta comunidad a insertarse en un ambiente dinámi-
co, aprovechando las Tecnologías de la Información y las Comunicaciones (TICs) en
la gestión del aprendizaje.
Para brindar una educación inclusiva la universidad requiere que la educación vir-
tual que ofrece cumpla con todos los estándares y normas necesario de manera que
todos sus estudiantes tengan las mismas condiciones independientemente si posee una
discapacidad o no.

2 Objetivo del Sistema Web Accesible de Educación Virtual

En la Universidad Autónoma de Santo domingo estudian alrededor de 7,000 estudian-


tes con discapacidad de todos los tipos los cuales a la hora de realizar las labores
cotidianas de una persona normal se les dificulta debido a que el entorno en el que s
no está diseñado para personas con discapacidad.
El Sistema Web Accesible de Educación Virtual es la respuesta a la necesidad que
posee la institución para mejorar y estandarizar su ambiente virtual y ofrecer educa-
ción inclusiva para toda la población.
Para el desarrollo de este se utilizó la plataforma de aprendizaje Moodle que en su
categoría es la más adecuada para campus virtuales según la guía metodológica
ESVIAL y otros estudios realizados [1].
En este sistema se crean plugins para el cumplimiento de los estándares de accesi-
bilidad que van a permitir a los discapacitados disfrutar de una educación equitativa.
Esto permitirá a la UASD poder ser miembro de las Universidades de Latinoamérica
que colaboran con el proyecto ESVIAL y ayudar con la mejora de sistemas de educa-
ción virtual ofreciendo métodos o plugins que sirvan para cumplir con los estándares
de accesibilidad.
El objetivo del sistema es brindar una educación superior inclusiva a todos los ni-
veles a través de las TICs, que las personas con cualquier tipo de discapacidad tengan
el mismo acceso a la educación que las demás de manera que puedan integrarse a la
sociedad, a la formación profesional, al área laboral con las mismas igualdades de
condición.
Las fases de implementación de la plataforma Moodle accesible han sido las si-
guientes:
a) Instalación de Moodle [2].


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

b) Instalación de plugins de accesibilidad disponibles en la web [3].


c) Análisis de la accesibilidad WCAG 2.0
d) Creación de un curso en Moodle
e) Modificación del código PHP y HTML de Moodle recién instalado para solu-
cionar problemas de accesibilidad detectados
f) Creación de un plugin en PHP que localice las imágenes sin texto alternativo en
las páginas web de un curso instalado en Moodle [4].
g) Carga de contenidos del curso en forma de páginas web.
h) Ejecución del plugin creado

3 Bloques o plugins del sistema

El estándar WCAG del W3C define doce pautas (“guidelines”) y numerosos criterios
de conformidad (“success criteria”) para accesibilidad de contenido web. WCAG 2.0
se organizan alrededor de cuatro principios principales, que sientan las bases necesa-
rias para que cualquier persona pueda acceder y utilizar el contenido web.

1. Perceptible: La información y los componentes de la interfaz de usuario de-


ben ser presentados a los usuarios de modo que ellos puedan percibirlos. Es-
to significa que los usuarios deben ser capaces de percibir la información
presentada, evitando que sea invisible a todos sus sentidos.
2. Operable: Los componentes de la interfaz de usuario y la navegación deben
ser operables. Esto significa que los usuarios deben ser capaces de operar la
interfaz, evitando que la interfaz exija una interacción que un usuario no
pueda realizar.
3. Comprensible: La información y el manejo de la interfaz de usuario deben ser
comprensibles. Esto significa que los usuarios deben ser capaces de entender
la información, así como el funcionamiento de la interfaz de usuario.
4. Robusto: El contenido debe ser suficientemente robusto como para ser inter-
pretado de forma fiable por una amplia variedad de aplicaciones de usuario,
incluyendo las ayudas técnicas. Esto significa que los usuarios deben poder
acceder al contenido cuando las tecnologías avanzan (cuando las tecnologías
y las aplicaciones de usuario evolucionan, el contenido debe continuar siendo
accesible).

Para cumplir con los estándares se ha decidido crear bloques o plugins por cada pauta
relacionada a los principios. Los siguientes son algunos ejemplos.
x Evaluador del atributo ALT en Imágenes. Este bloque nos permite evaluar
la ausencia del atributo ALT en cada imagen que tenga un curso en Moodle.
Gracias a este bloque podemos cumplir con la pauta 1.1 del principio Percepti-
ble, que se enuncia como “1.1 Proporcionar alternativas textuales para todo
contenido no textual de modo que se pueda convertir a otros formatos que las
personas necesiten, tales como textos ampliados, braille, voz, símbolos o en un


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

lenguaje más simple”. En la figura 1 se muestra el aspecto que presenta el blo-


que en la pantalla principal de Moodle.

Fig. 1. Bloque “Evaluador del atributo ALT en Imágenes”

x Método de Acceso directo. Con este método podemos recorrer un curso com-
pleto en Moodle mediante el teclado (figura 2). Gracias a este bloque podemos
cumplir con la pauta 2.1 del principio Operable, que se enuncia como “2.1
Proporcionar acceso a toda la funcionalidad mediante el teclado”.

Fig. 2. Bloque “Método de Acceso directo”

x Lenguaje. Este bloque nos presenta la bandera del lenguaje en que se encuen-
tra el curso (figura 3). Esto permite al usuario visualizar un cambio de imagen
a la hora de cambiar el idioma y por medio de este orientarse. Gracias a este
bloque podemos cumplir con la pauta 1.3 del principio Perceptible: “1.3 Crear
contenido que pueda presentarse de diferentes formas (por ejemplo, con una
disposición más simple) sin perder información o estructura”.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Fig. 3. Bloque “Lenguaje” cuando el idioma detectado es el español.

x Accesibilidad. Este bloque, disponible en la página oficial de Moodle, permite


cambiar el fondo para facilitar la visualización a personas con problemas de vi-
sión (figura 4). También permite aumentar o disminuir el tamaño de las letras.
Gracias a este bloque podemos cumplir con la pauta 3.1 del principio Com-
prensible: “3.1 Hacer que los contenidos textuales resulten legibles y compren-
sibles”.

Fig. 4. Bloque “Accesibilidad”.

4 Conclusiones

El Sistema Web Accesible de Educación Virtual permitirá a la Universidad Autónoma


de Santo Domingo aplicar los estándares de accesibilidad a su plataforma virtual de
manera que puedan ofrecer una educación equitativa a toda la población y específica-
mente a los estudiantes con discapacidad.
Con este sistema los estudiantes con discapacidad podrán mejorar sus condiciones
de vida ya que tendrán la oportunidad de estudiar desde su hogar, si necesidad de
gastar tiempo y dinero para tener que trasladarse a la universidad a tomar clases físi-
camente cosa que para este tipo de personas es aún más incómodo de realizar.
Estos bloque están diseñados para operar en cualquier universidad o campus virtual
y esa flexibilidad permite que cualquier persona pueda descargarlos y aplicarlos de
manera inmediata para hacer su plataforma más accesible. Es una forma de cumplir
con estándares mediante la creación de plugins y que puedan descargarse desde la
página oficial de Moodle ayudando así a la comunidad y a los programadores a la
hora de querer hacer accesible cualquier plataforma. Para crear un campus accesible
solo se necesita seguir creando bloques que cumplan con los demás principios y pau-
tas y aplicarlos.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Referencias

1. Guía Metodológica y Modelo de Acreditación ESVI-AL. Disponible en:


http://www.esvial.org/guia.
2. Installing Moodle. 2013. Disponible en:
http://docs.Moodle.org/25/en/Installing_Moodle.
3. Instalando plugins. 2013. Disponible en
http://docs.Moodle.org/all/es/Instalando_plugins.
4. Papaioannou, J. Desarrollo de bloques, 2005. Disponible en:
http://docs.Moodle.org/all/es/Desarrollo_de_bloques.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Análisis de un caso de multi-evaluación de una página web


según WCAG 2.0

David Sangilbert, José R. Hilera, Elena T. Vilar

Universidad de Alcalá, España


E-mail: dsangilbert@gmail.com; jose.hilera@uah.es; etvilar@hotmail.com

Resumen. Para realizar una evaluación de la accesibilidad de una página web se to-
ma como base normativa internacional las Pautas de Accesibilidad para el Contenido
Web (WCAG) 2.0 del World Wide Web Consortium (W3C). Apoyadas en esta nor-
ma y en otros trabajos de carácter oficial, existen numerosas herramientas que facili-
tan la medición de los niveles de accesibilidad de sitios web. No obstante, muchos
expertos pueden dar diferentes resultados en el momento de evaluar el mismo sitio
web. Esta situación se puede deber a que algunos criterios de conformidad de las
WCAG 2.0 presentan una mayor complejidad para entenderlos o a que se han utili-
zado diferentes herramientas automáticas de evaluación de la accesibilidad. Un tra-
tamiento estadístico de los resultados de la evaluación de diferentes evaluadores
aportaría conocimiento para unificar criterios en los criterios en que los expertos di-
fieren. Con esta motivación se presenta este trabajo, que incluye el resultado de ana-
lizar los datos de la evaluación de la accesibilidad de una página web llevada a cabo
por 16 evaluadores tomando como referencia el estándar WCAG 2.0.

Palabras clave: Accesibilidad, WCAG, W3C.

1 Introducción

La accesibilidad web se puede definir como la posibilidad de que un sitio o servicio web
pueda ser visitado y utilizado de forma satisfactoria por el mayor número posible de per-
sonas, independientemente de las limitaciones personales que tengan o de aquellas limita-
ciones que sean derivadas de su entorno [1].
Hacer accesible el contenido en la web significa que el diseño de la interfaz de usuario
de los sitios web debe asegurar un acceso universal a la información en condiciones de
igualdad, independientemente de las condiciones físicas o psíquicas del usuario y de su
entorno.
Existen organismos que establecen pautas y normas de accesibilidad Web, destacando
la Organización Internacional de Normalización (ISO), el World Wide Web Consortium
(W3C) y los organismos nacionales de normalización de los distintos países; por ejemplo,
en España la Asociación Española de Normalización y Certificación (AENOR).
Entre todas las recomendaciones, la más aplicada es el conjunto de Pautas de Accesibi-
lidad para el Contenido Web (WCAG) 2.0 de W3C, que proporcionan un amplio rango de


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

recomendaciones para crear contenido web accesible [2]. Seguir estas pautas da soporte
para crear un contenido accesible para un mayor número de personas con discapacidad,
incluyendo ceguera y baja visión, deficiencias auditivas, deficiencias del aprendizaje, limi-
taciones cognitivas, limitaciones de la movilidad, deficiencias del habla, fotosensitividad y
combinaciones de las anteriores.
Tanto ISO como AENOR han asumido en 2012 las Pautas de Accesibilidad para el
Contenido Web (WCAG) 2.0 del W3C como estándar o norma. En el caso de ISO, como
estándar ISO/IEC 40500:2012, y en el caso de AENOR, como norma española UNE
139803:2012.
WCAG 2.0 establece 4 principios generales que deben ser cumplidos por un sitio web:
debe ser perceptible, operable, comprensible y robusto. Cada uno de los principios tiene
asociada unas pautas, y éstas unos criterios de conformidad, siendo un total de 12 pautas
que proporcionan un marco objetivo que ayudan a los autores a comprender los criterios
de conformidad. Cada pauta posee varios criterios de conformidad que son verificables y
que debe cumplir un sitio web accesible. Los criterios de conformidad están clasificados en
los siguientes niveles de conformidad: A, AA y AAA; siendo el nivel A el más bajo y
AAA el más alto. Estos criterios de conformidad son en los que los autores y evaluadores
de la accesibilidad se apoyan o toman como base para crear o revisar páginas web. Cada
criterio de conformidad ha sido documentado por el W3C con un grupo de técnicas (técni-
cas suficientes y técnicas recomendables) que sirven de ayuda para abarcar algunos puntos
que no están incluidos en los criterios de conformidad.
Para que una página web sea conforme con las WCAG 2.0, debe satisfacer todos y cada
uno de los siguientes criterios de conformidad según el nivel de conformidad que se vaya a
alcanzar:
- Nivel A: la página web satisface todos los criterios de conformidad de nivel A, o se
proporciona una versión alternativa conforme.
- Nivel AA: la página web satisface todos los criterios de conformidad de nivel A y AA,
o se proporciona una versión alternativa conforme al nivel AA.
- Nivel AAA: la página web satisface todos los criterios de conformidad de nivel A, AA
y AAA, o se proporciona una versión alternativa conforme al nivel AAA.

3 Evaluación de la accesibilidad de una página web

La evaluación de la accesibilidad de una página web puede realizarse aplicando herramien-


tas, que permitan: una validación automática del contenido web desarrollado y su adecua-
ción a las pautas WCAG; la comprobación de si la forma de acceder a la página es compa-
tible con distintas ayudas técnicas que utilizan las personas con discapacidad para acceder
a la Web; o la evaluación de distintas características relacionadas con la accesibilidad
como contraste de colores, accesos de sólo texto, distintas resoluciones de pantalla, etc.
A pesar de ser una inestimable ayuda en la evaluación de la accesibilidad de los sitios
web, hay que tener en cuenta que las herramientas automáticas están lejos de ser infalibles
y tienen ciertas limitaciones, pudiendo dar falsos positivos (considerar como error algo que
no lo es) o no detectar algunos errores que el usuario debe revisar manualmente [3].


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Entre las herramientas que pueden utilizarse en la evaluación de la accesibilidad según


WCAG 2.0 destacan TAW, disponible en http://www.tawdis.net; Cynthia Says, disponible
en http://www.cynthiasays.com; AChecker, disponible en http://achecker.ca, eGOVMON,
disponible en: http://accessibility.egovmon.no, Tool Validator, disponible en
http://www.totalvalidator.com; o FireEyes, disponible en
http://worldspace.deque.com/FireEyes.
Las herramientas de validación automática tienen ventajas como la rapidez de funcio-
namiento, también permiten revisar muchos aspectos simultáneamente y ayudan a certificar
que no se cumplen algunos criterios de conformidad. Sin embargo, como desventajas, la
interpretación de los resultados del análisis puede ser compleja, y muchos aspectos de la
accesibilidad sólo pueden verificarse mediante una revisión manual complementaria por-
que sólo con su uso no pueden certificar que sí se cumplen los criterios.
También existen herramientas facilitan la evaluación manual de diferentes factores que
afectan a la accesibilidad, que aunque requieren un mayor esfuerzo por parte de los eva-
luadores, arrojan unos resultados más precisos. Son herramientas que permiten desactivar
JavaScript, desactivar imágenes, desactivar hojas de estilo CSS, examinar el contraste de
color, examinar encabezados, comprobar parpadeo de imágenes, validar el formato
HTML, o validar las hojas de estilo CSS [4].
Por último, es importarte a la hora de evaluar una página web, ponerse en el lugar de un
posible usuario con discapacidad que utilice ayudas técnicas (como un lector de pantalla) o
navegadores web específicos (como un navegador de sólo texto), y comprobar las posibles
dificultades que pueda ofrecer la página al utilizar tales herramientas.

3 Caso real de multi-evaluación de la accesibilidad de un sitio web

En este apartado se describe el estudio realizado, que se basa en la evaluación de la acce-


sibilidad de una misma página web por distintos evaluadores. Se seleccionó un sitio web
de un restaurante para hacer la evaluación (www.restaurantguideatlanta.com). En este caso
real se utilizaron varias herramientas para la evaluación de la accesibilidad, y fue realizado
por 17 evaluadores utilizando las mismas herramientas.
Se evaluó el nivel de conformidad AAA, es decir, el total de 61 criterios de conformi-
dad de WCAG 2.0 (25 de nivel A, 13 de nivel AA y 23 de nivel AAA) fueron revisados
por los evaluadores. Para la recogida de datos se utilizó una plantilla hecha en Excel, en la
cual se recogen los criterios de conformidad agrupándolos por los cuatro principios gene-
rales de WCAG 2.0 (22 del principio perceptible, 20 del principio Operable, 17 del princi-
pio Comprensible y 2 del principio Robusto), y dentro de éstos por los tres niveles A, AA
y AAA..
En las tablas 1 a 4 se muestran los resultados de la evaluación de los 61 criterios de con-
formidad por parte de los 17 evaluadores. En cada una de las tablas se puede observar las
celdas en rojo con un “-“ para los criterios que no se cumplen según la opinón de cada
evaluador, y los verdes con un “+” son los que sí se cumplen. Por otro lado las celdas con
“na” son aquellos criterios de conformidad no aplicados por no estar contemplados en el
diseño de la página web analizada.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

En la tabla 1 se recogen los resultados de los 22 criterios de conformidad correspon-


dientes al principio “Perceptible” de WCAG 2.0, es decir aquellos criterios que se basan
en el principio enunciado de la siguiente forma: “la información y los componentes de la
interfaz de usuario deben ser presentados a los usuarios de modo que ellos puedan perci-
birlos”. Puede observarse en la tabla que se han ordenado por columnas, correspondiendo
las primeras a los 9 del nivel A, las siguientes los 5 del nivel AA, y por último los 8 del
nivel AAA.

Tabla 1. Resultados de las evaluaciones del principio Perceptible.

En la tabla 2 se recogen los 20 criterios de conformidad correspondientes al principio


“Operable”, que establece que “los componentes de la interfaz de usuario y la navegación
deben ser operables”. En este caso hay 9 de nivel A, 3 de nivel AA y 8 de nivel AAA.
En la tabla 3 están los 17 criterios del principio “Comprensible”, que establece que “la
información y el manejo de la interfaz de usuario deben ser comprensibles.”. En este caso
hay 5 de nivel A, 5 de nivel AA y 7 de nivel AAA.
Por último, la tabla 4 contiene los 2 criterios del principio “Robusto”, todos del nivel A,
que exige que “el contenido debe ser suficientemente robusto como para ser interpretado
de forma fiable por una amplia variedad de aplicaciones de usuario, incluyendo las ayudas
técnicas”.

Tabla 2. Resultados de las evaluaciones del principio Operable.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Figura 1. Comparación S.O. móviles

5 Android OS
El sistema Android ha sido la plataforma escogida para efectuar el desarrollo del
trabajo, causa por la cual debe ser analizado en profundidad y así estar al tanto de sus
características primordiales.

Android es un conjunto de herramientas y aplicaciones destinadas a dispositivos


móviles. Está desarrollado por la Open Handset Alliance (capitaneada por Google) y
sigue la filosofía de código abierto.
Incluye un sistema operativo, librerías de abstracción y aplicaciones finales. Sus
principales características son:

• Kernel basado en Linux.


• Framework de aplicaciones que permite reutilizar y reemplazar sus componentes.
• Navegador web integrado basado en Webkit.
• Gráficos optimizados 2D (librería propia) y 3D (basados en OpenGL ES).
• SQLite para almacenamiento de datos.
• Soporte multimedia para los formatos más utilizados de sonido, vídeo e imagen
(MPG4, H.264, MP3, AAC, AMR, JPG, PNG, GIF).
• Soporte para telefonía GSM, Bluetooth, EDGE, 3G, Wifi, cámara, GPS,
compás, acelerómetro.
• Gran entorno de desarrollo que incluye: documentación, emulador de
dispositivos, herramientas de debug y análisis de uso de memoria/CPU, plugin
para el entorno de desarrollo Eclipse y varias utilidades complementarias.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

común ni en el 50% de los casos. Como puede observarse, hay 3 criterios problemáticos de
los niveles A o AA, es decir un 11% del total de 28 criterios evaluados de dichos niveles.

Tabla 5. Criterios evaluados de la misma forma por al menos el 90% de los expertos.
Criterio Descripción Principio Ni- Se
vel cumple
1.1.1 Todo contenido no textual que se presenta al usuario Perceptible A No
tiene una alternativa textual que cumple el mismo
propósito.
1.3.1 La información, estructura y relaciones comunicadas a Perceptible A No
través de la presentación pueden ser determinadas por
software o están disponibles como texto.
1.4.4 Todo el texto puede ser ajustado sin ayudas técnicas Perceptible AA No
hasta un 200 por ciento sin que se pierdan el contenido
o la funcionalidad.
1.4.6 La presentación visual de texto e imágenes de texto Perceptible AAA No
tiene una relación de contraste de, al menos, 7:1.
1.4.8 En la presentación visual de bloques de texto, se pro- Perceptible AAA No
porciona algún mecanismo para que: los colores de
fondo y primer plano pueden ser elegidos por el usua-
rio, el ancho no es mayor de 80 caracteres, el texto no
está justificado, el espacio entre líneas es de, al menos,
un espacio y medio dentro de los párrafos, 1.5 mayor
entre párrafos, el texto se ajusta hasta un 200% sin
desplazamiento horizontal.
2.3.1 Las páginas web no contienen nada que destelle más de Operable A Si
tres veces en un segundo, o el destello está por debajo
del umbral de destello general y de destello rojo.
2.4.1 Existe un mecanismo para evitar los bloques de conte- Operable A No
nido que se repiten en múltiples páginas web.
2.4.8 Se proporciona información acerca de la ubicación del Operable AAA No
usuario dentro de un conjunto de páginas web.
2.4.10 Se usan encabezados de sección para organizar el Operable AAA No
contenido.
3.2.1 Cuando cualquier componente recibe el foco, no inicia Comprensible A Si
ningún cambio en el contexto.
4.1.1 En los contenidos implementados mediante el uso de Robusto A No
lenguajes de marcas, los elementos tienen las etiquetas
de apertura y cierre completas.
4.1.2 Para todos los componentes de la interfaz de usuario, el Robusto A No
nombre y la función pueden ser determinados por
software.

Si se consideran los 61 criterios de WCAG 2.0 en su totalidad, no sólo los de niveles A


y AA; descartando un total de 18 no aplicables, los resultados globales son de 12 de 43
criterios posibles en los que existe una práctica opinión unánime de los expertos (un 28%);
y 8 del total de 43 (un 19%) en los que no hay una mayoría suficiente de expertos para
determinar si se cumple o no el criterio.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Tabla 6. Criterios con un nivel de acuerdo inferior al 50%.


Criterio Descripción Principio Ni-
vel
1.3.3 Las instrucciones proporcionadas para entender y operar el conte- Perceptible A
nido no dependen exclusivamente en las características sensoriales
de los componentes como su forma, tamaño, ubicación visual,
orientación o sonido.
2.4.3 Si se puede navegar secuencialmente por una página web y la Operable A
secuencia de navegación afecta su significado o su operación, los
componentes que pueden recibir el foco lo hacen en un orden que
preserva su significado y operabilidad.
2.2.3 El tiempo no es parte esencial del evento o actividad presentada Operable AAA
por el contenido, exceptuando los multimedia sincronizados no
interactivos y los eventos en tiempo real.
3.3.1 Si se detecta automáticamente un error en la entrada de datos, el Comprensible A
elemento erróneo es identificado y el error se describe al usuario
mediante un texto.
3.1.3 Se proporciona un mecanismo para identificar las definiciones Comprensible AAA
específicas de palabras o frases usadas de modo inusual o restrin-
gido, incluyendo expresiones idiomáticas y jerga.
3.1.5 Cuando un texto requiere un nivel de lectura más avanzado que el Comprensible AAA
nivel mínimo de educación secundaria una vez que se han elimi-
nado nombres propios y títulos, se proporciona un contenido
suplementario o una versión que no requiere un nivel de lectura
mayor a ese nivel educativo.
3.1.6 Se proporciona un mecanismo para identificar la pronunciación Comprensible AAA
específica de las palabras cuando el significado de esas palabras,
dentro del contexto, resulta ambiguo si no se conoce su pronun-
ciación.
3.2.5 Los cambios en el contexto son iniciados únicamente a solicitud Comprensible AAA
del usuario o se proporciona un mecanismo para detener tales
cambios.

4 Conclusiones

El sitio web analizado tiene un nivel de accesibilidad bajo, en opinión de los expertos que
participaron en el estudio. Sin embargo, no existe una opinión unánime respecto a todos
los criterios de satisfacción que WCAG 2.0 establece para analizar en una página web.
Con el estudio se ha comprobado que existen criterios de WCAG 2.0 que nos son valora-
dos de la misma forma por parte de los evaluadores, utilizando incluso las mismas herra-
mientas para ello. Entre las razones para justificar esta disparidad de opiniones podrían
encontrarse: la experiencia de los evaluadores, el grado de subjetividad que permite intro-
ducir cada criterio en su validación, o la claridad de su explicación en el propio estándar
WCAG 2.0.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Agradecimientos

Este trabajo ha sido financiado en parte por la Comisión Europea, a través del proyecto
ESVI-AL del programa ALFA.

Referencias

1. Introducción a la accesibilidad web. Instituto Nacional de Tecnologías de la Comunicación,


INTECO, 2008. Disponible en: www.inteco.es/file/bpoTr1nHdohApbHgFsyFSw.
2. Web Content Accessibility Guidelines (WCAG) 2.0. World Wide Web Consortium, 2008.
Disponible en: http://www.w3.org/TR/WCAG20/
3. Herramientas de evaluación de la accesibilidad web. Instituto Nacional de Tecnologías de la
comunicación, INTECO, 2008. Disponible en:
http://www.inteco.es/file/bpoTr1nHdoguB2ZrJ-Xl7g.
4. Hilera1, J.R., Díez, T., Domínguez, M.J., Moreno, L., Sangilbert, D. Guía rápida de evalu-
ación automatizada de contenidos web según WCAG 2.0 usando herramientas de software li-
bre. V Congreso Internacional de Diseño, Redes de Investigación y Tecnología para todos,
DRT4ALL, Madrid, 2013.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Segunda Parte

Ponencias Generales del Congreso ATICA 2013


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

La imagen de la mujer deportista en el cine.


Estudio de cuatro films

María Muñoz-Vázquez1
1
Universidad de Huelva
21007 Huelva
E-mail: maria.munoz@cv.uhu.es

Dr. J. Ignacio Aguaded-Gómez2


2
Universidad de Huelva
21007 Huelva
E-mail: Ignacio@aguaded.es

Resumen. El cine tiene la capacidad de permear la cultura y sobre todo de dinamizar-


la, de crear nuevos imaginarios, y de servir de espejo de la sociedad y de sus relacio-
nes. Nos permite mirar la relación del sujeto con su entorno y apela a la imaginación a
través de la creación. Dentro de este medio de comunicación encontramos diferentes
géneros, nosotros nos vamos a centras en el deportivo, y la información que nos llega
como público desde una perspectiva de género, más concretamente de la mujer. Está
claro que dentro de las películas de ámbito deportivo, la imagen que se da de la mujer
deportista, es un género para analizar, teniendo en cuenta que la investigación sobre la
mujer en los medios surge en la década de los 70, marcando fuertemente con un tinte
reivindicativo y critico las imágenes estereotipadas de la mujer tanto en revistas como
en los programas televisivos, y por supuesto el abuso de la exhibición del cuerpo
femenino en los mensajes publicitarios. El objeto de este estudio, es analizar la ima-
gen de la mujer deportista que se está dando actualmente en la gran pantalla y como
ésta afecta a la práctica físico-deportiva. Se considera de suma importancia un análisis
de los estereotipos que los espectadores están recibiendo de la mujer, y más concre-
tamente en el mundo deportivo. Para ello y mediante una metodología cualitativa se
formuló un instrumento de medición, en este caso una plantilla u hoja de análisis en
donde aparecen reflejados los elementos informativos a contemplar para posterior-
mente analizar los datos obtenidos de la muestra. En ellos, se pueden encontrar en
mayor o menor grado, que el personaje se encuentra dentro de la tipología de «heroína
subversiva», la cual rompe con los estereotipos por alcanzar su sueño, y no se catalo-
gan como «cenicientas», que acatan su rol de sombra del hombre, al que deben satis-
facer por encima de todo. También la indumentaria de la protagonista, presenta por-
centajes de seducción en determinados momentos, porque se sigue con la mentalidad
de que una película donde la protagonista es la mujer, y que no transmita deseos al
espectador hombre que la está viendo, no obtendrá éxito de taquilla. Dando a entender
ante todo que se debe ser femenina a la hora de practicar deporte, para no sentirse
fuera de las normas marcadas por una sociedad muy estereotipada.

Palabras clave: deporte, cine, mujer, estereotipos.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

1. Introducción

La cinematografía es considerada como la técnica de proyectar una serie de fotogra-


mas de forma rápida y sucesiva que crean la impresión de movimiento. Etimológica-
mente fue un neologismo creado a finales del siglo XIX, compuesto por dos palabras
griegas “kine” que significa movimiento y “grafós” cuyo significado es imagen.
El cine como actualmente es conocido, se ha convertido en un importante medio
de comunicación, este nos transmite una serie de mensajes que nosotros debemos
saber interpretar y analizar de forma crítica, a través de una gran riqueza narrativa y
de imágenes. Este medio, considerado como el séptimo arte, se crea a través de un
lenguaje icónico que nos transmite a través de tres niveles perceptivos una serie de
mensajes que pueden llegar con mayor facilidad a un sector más amplio de la socie-
dad.
No solo eso, sino que debemos verlo también como un medio enriquecedor para el
ámbito educativo, ya que tiene innatas muchas posibilidades formativas con las que
podemos trabajar, si sabemos integrarlas de forma coherente.
Por tanto, es incuestionable la influencia que el cine tiene sobre la sociedad, po-
demos ver reflejados circunstancias cotidianas que nos rodean, inquietudes sociales,
realidades que en cierta medida pueden estar alejadas de nosotros, también crea ten-
dencias, es decir, la información que llega al espectador está cargada de valores cultu-
rales, sociales, educativos y en cierta medida podemos ser influenciables por ellos
tanto positiva como negativamente.
Podemos decir que estamos casi esclavizados a lo audiovisual, siendo continua-
mente bombardeados por ellos, de ahí que debamos acercarnos como educadores a
estos medios dándole una orientación educativa, enseñando a tener espectadores acti-
vos y no solo receptivos, y aproximándonos a la realidad educativa que está aconte-
ciendo en este siglo, en el cual priman las nuevas tecnologías de la comunicación y la
información.
El fin por tanto, es afirmar la riqueza educativa y formativa que se encuentra en el
cine, la cual influye directa o indirectamente a la persona tanto a nivel estético, como
al moral y al conductual, de ahí la importancia de poseer un mínimo conocimiento
para poder captar aquello que nos quiere transmitir un film, y a su vez tener la capaci-
dad de emitir un juicio crítico y reflexivo ante este medio.

2. Diferentes estereotipos que se observan de la mujer en películas


deportivas de ámbito competitivo.

El estereotipo se puede definir como una generalización en las atribuciones socia-


les sobre una persona por causa de su pertenencia a un grupo determinado o sobre el
propio grupo. Y es una realidad el hecho de que las distintas culturas han elaborado
unas definiciones muy claras acerca de las personas de uno y otro sexo: «lo que son y
lo que deben hacer; qué conductas se esperan de cada uno de estos sexos y cuáles les
están vetadas». Una de las consecuencias más interesantes de este proceso es el hecho
de que los propios grupos estereotipados se autoatribuyen las características que el
grupo estereotipador les asignó. Con lo cual se convierten ellos mismos, las mujeres
en nuestro caso, en sus propios confirmadores y reproductores del estereotipo (Los-
certales y Nuñez, 2009).


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Por lo tanto, y según Loscertales y Núñez (2009), «actualmente los medios de co-
municación social reflejan y difunden un acercamiento a la realidad y por tanto tam-
bién una aproximación, una manera de entender a los hombres y las mujeres y los
hombres actuales. Con ello contribuyen de manera importante al proceso de socializa-
ción del género, a la vez que reflejan la situación de ambigüedad en que se encuentran
hoy día muchas mujeres que, ante la rapidez de los avances y transformaciones socia-
les, ven acrecentada la posibilidad de ejercer roles que van mucho más allá de los
tradicionalmente ejercidos por sus antecesoras. Por una parte el reconocimiento cons-
titucional a la igualdad de derechos entre varones y mujeres; por otra, el bagaje cultu-
ral arquetípico que a través de mitos y religiones ha sido interiorizado por todos,
hombres y mujeres, a lo largo de siglos».
Por tanto en este trabajo, debemos tener claro que tal como enuncian Ramírez, Pie-
dra, Ríes y Rodríguez (2011), «la composición formada por cine, deporte y mujer, es
una combinación difícil de conciliar, en cierta medida porque hay una escasez de
películas dedicadas a este conjunto temático». Es decir, no hay una producción amplia
cinematográfica que se haya dedicado a explotar este género, encontrando casos ais-
lados, como los que vamos a analizar en este trabajo.
De hecho, si analizamos a grosso modo un amplio número de películas de género
deportivo, la mujer aparece como mera acompañante del hombre, hay pocos films
donde sea ella la protagonista, y entre este bajo porcentaje hay que destacar que la
mayoría están más encaminadas a deportes «femeninos» como el patinaje artístico, la
danza, o el voleibol entre otros. Además los rasgos más comunes entre ellas, inalcan-
zables para nosotras, suelen ser cinturas estrechas, grandes pechos y largas piernas.
Debemos reconocer que hoy aun las mujeres, dentro del deporte, tienen que equili-
brar sus habilidades deportivas con feminidad para poder ser aceptadas (Huggins,
2007) y ser felices (Wright, 2004). Si no, rápidamente son calificadas como poco
femeninas, ya que se alejan de su estereotipo y se acercan a los masculinos.
De ahí que en muchas de estas películas se muestre el miedo de las mujeres depor-
tistas de ser vistas como mujeres masculinizadas, miedo que se produce por la no
aceptación en la cultura occidental de diferentes rasgos que se aparten del binomio
clásico masculino-femenino (Baker, 2006).
Como afirman Blanco y Naranjo (2008), estos medios son elementos conformado-
res de la realidad social y tienen gran responsabilidad en la proyección de la imagen
de la mujer, de hecho, los estereotipos de género en los medios ha sido una de las
áreas más estudiadas, demostrándose que la mujer sigue siendo vista en la sociedad
occidental de un modo estereotipadamente negativo, retratando una imagen irreal de
la misma.
Ante esta visión estereotipada de la mujer, tiene especial interés el ámbito de la be-
lleza femenina, en el que se le perpetúa como un individuo escultural, delgado, con
pocas caderas y extremadamente atractivo, características que sólo corresponden con
el 5% de la población total de mujeres adultas (Neuendorf, Gore, Dalessandro, Jans-
tova y Snyder-Suhy, 2010).
Por tanto, y como hemos mencionado anteriormente, los roles que hombres y mu-
jeres desempeñan en sus historias son observados y en muchos casos asumidos como
normal por los espectadores, tal y como Guarinos (2007) menciona, el cine es sin
duda el pionero en la absorción y proyección de elementos para la realimentación de
la sociedad de la que procede y a la que sirve. Esto es pionero en la reproducción y
transmisión del discurso patriarcal que asigna determinados estereotipos y roles a la
mujer.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

En su análisis de género dentro de las películas deportivas del cine americano, Ba-
ker (2006) afirma que las mujeres, salvo en contadas ocasiones, son representadas con
papeles de débiles animadoras y jugadoras de deportes de equipo. En la mayoría de
las películas en la que la mujer practica un deporte trasgrediendo los cánones hetero-
normativos de la sociedad patriarcal, el final de la historia se presenta cuando ésta
abandona la carrera deportiva y se casa con el amado, volviendo así, al lógico equili-
brio patriarcal de la sociedad americana.
Tanto para los medios de comunicación como para los consumidores masculinos
del deporte, las atletas femeninas que irradian un aura de erotismo en los deportes
masculinos parecen tener una atracción especial. Por ello, hoy se considera a las mu-
jeres deportistas particularmente atractivas e incluso sexys. La objetivización y eroti-
zación del cuerpo femenino con finalidades comerciales es muy clara en el deporte
(Messner, 2002). Muchas atletas transforman sus indumentarias convirtiéndolas en
puros objetos del deseo y mostrando así un mensaje ambiguo, las deportistas son
mujeres sensuales (Hargreaves, 1994).
Pero ese papel tan importante que juega el cuerpo de la mujer en la gran pantalla,
alejada en la mayoría de los casos de la realidad, crea un gran problema en la cons-
trucción de las personalidades, ya que esa imagen no realista puede llevar a algunas
mujeres a obsesionarse para llegar a alcanzar ese canon de belleza, provocando des-
viaciones de identidad, o incluso llevando a la persona a enfermar, como es el caso de
las anoréxicas y bulímicas, de ahí la importancia de enseñar a ver a través de la gran
pantalla.
Aunque ya desde la Psicología Social, tal y como mencionan Gila y Guil (1999), se
analiza cómo los medios de comunicación de masas juegan un papel importantísimo
en la formación y transmisión de modelos y cómo su influencia es ciertamente pode-
rosa ya que está en estrecha relación con la creación de la conciencia social además de
legitimar ideas, estereotipos, crear estados de opinión e incluso inventar aconteci-
mientos a su medida, de ahí la peligrosidad de los mismos.
Por ello, debemos reconocer que, en muchas ocasiones, el cine se convierte en un
espejo ideológicamente deformado y tremendamente perverso con unas repercusiones
socializadoras nefastas al utilizar no tanto los estereotipos como los prejuicios. Hay
que decir también que, en muchas ocasiones, el cine presenta unos contenidos prejui-
ciosos negativos poco explícitos, muy sutiles y, por tanto, bastantes peligrosos (Lo-
certales y Núñez, 2009).
Por tanto, y tal y como afirman Loscertales y Nuñez (2009), «los medios de comu-
nicación producen desigualdad de género mediante la construcción de un entorno
simbólico dañino. A través del discurso mediático, compuesto de roles y estereotipos,
la imagen de la mujer es gestionada, transmitiendo inferioridad respecto al hombre».
Ahora bien, las preguntas que nos queremos hacer, y que se convierten en espina
dorsal de este apartado son: ¿qué enseña el cine sobre la realidad?, ¿cómo es esa cons-
trucción cuando se le aplica una mirada desde el género?, ¿cómo representa el cine a
las mujeres que se dedican profesionalmente al deporte? Cada vez se hace más nece-
sario pensar y mantener una postura crítica frente al cine, con sus formas de comuni-
cación y sus modos de representación de la realidad, y enseñar a diferenciar lo real de
lo imaginario.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

3. Contextualización y justificación de la investigación

Este trabajo final del «Máster oficial de Educación Físico-Deportiva» está encua-
drado en la Universidad de Huelva, ciudad situada al suroeste de España y ubicada
entre mar y montaña. Esta institución era en principio dependiente de la Universidad
de Sevilla, pero finalmente se segrega de ella en el año 1993. En poco tiempo se ha
consolidado como una de las universidades de mayor crecimiento, motivado por el
elevado nivel de sus docentes y por su variedad en oferta educativa, poseedora cada
vez más de nuevas titulaciones.
Hemos de tener en cuenta, que si se ha elegido está temática, es porque nos encon-
tramos ante una sociedad que está rodeada de información subliminal, que nos llega a
través de las imágenes, y más en concreto en este trabajo, que recibimos información
de manos de la gran pantalla. Y lo que pretendemos es analizar que nos transmiten las
películas deportivas protagonizadas por mujeres y que «beneficios» podemos obtener
a nivel educativo con el uso de las películas como recurso.
También hay que destacar, que son muchos los organismos que están viendo la im-
portancia de desarrollar una educación en medios, de hecho como ya hemos mencio-
nado anteriormente, tenemos como ejemplo, la Declaración de Grünwald de 1982, la
cual nos indica la influencia de los medios en la sociedad, como repercute y como
debemos afrontar esta nueva era, mediante la enseñanza de una mirada crítica, tanto
en los hogares con la concienciación de los padres, como en la escuela y la Universi-
dad.
Los jefes de Estado y de Gobierno han considerado que la Educación es uno de los
cinco objetivos prioritarios para conseguir una salida sostenible de la crisis económica
y para el cambio de modelo que se producirá durante la próxima década en todos los
Estados miembros. La educación se ha convertido en uno de los motores del creci-
miento económico y del empleo para la próxima década. Es decir, se está viendo a la
educación con vistas no solo a nivel individual, de crecimiento de la persona, sino que
por fin se empieza a ver como un eslabón más para cambiar la sociedad.
Podemos comprobar, que en el «Plan de Acción 2010-2011» del Ministerio de
Educación, entre uno de sus 12 objetivos educativos, aparece en quinto lugar como
objetivo a desarrollar en la educación, el de las Tecnologías de la Información, ya que
según en este Consejo de Ministros reunidos el 25 de Junio de 2010 creen que «las
nuevas tecnologías sin duda tienen un relevante papel que desempeñar en el desarro-
llo de nuevas concepciones de enseñanza y aprendizaje, por lo que es conveniente
fomentar e incrementar su uso en todas las áreas de conocimiento de los distintos
niveles educativos».
Pero además, cabe destacar que no solo es necesario fomentarlo por lo anterior-
mente expuesto, sino como bien llegaron a la conclusión «la preparación para incor-
porarse plenamente a la sociedad actual requiere el desarrollo suficiente de las compe-
tencias asociadas al tratamiento de la información y la competencia digital, de modo
que se logre la suficiente familiaridad, la actitud crítica y la eficacia en el uso de los
medios digitales». Es decir, conseguiremos mediante esto, algo muy importante y
necesario para esta sociedad, personas críticas, que sean capaces de pensar por ellos
mismos, y no dejándose llevar por el pensamiento en masa, que contrasten la infor-
mación, y puedan tomar por ellos mismos sus propias decisiones, evitando así con-
ductas irracionales.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

4. Población y muestra

En nuestro estudio, mi labor ha pretendido ser activa, implicándome en cada una


de las directrices dadas por mis Directores para poder llevar a cabo la realización de
este análisis. En primer lugar se pensó en analizar todas las películas deportivas de la
última década, tanto si la mujer era o no protagonista, pero esto proceso se llevara a
cabo en la Tesis Doctoral. Esta decisión fue a causa de ver las pocas películas existen-
tes donde la mujer era protagonista, de ahí de centrarnos más en solo aquellas donde
el rol principal lo desempeñaba una fémina, y así también observar y comprobar que
información le llegaba al espectador sobre esta índole.
Debido a la escasez de tiempo, tuvimos que acotar las muestras a un número más
reducido, aunque así queda una franja abierta para futuras investigaciones que se
puedan realizar sobre este tema. De ahí que nuestra muestra cuantitativa este consti-
tuida por 4 películas.
El diseño de esta muestra, ha estado sujeta a una variable muy objetiva, que era
buscar cuatro deportes diferentes que desempeñara la mujer, como protagonista de la
película. De hecho, se han buscado dos de deportes colectivos, en este caso béisbol y
futbol, un deporte individual de lucha como es el boxeo y por último la danza, que ha
sido desde la antigüedad, la única actividad deportiva que en mayor o menor grado ha
podido practicar la mujer sin ser crucificada por ello. Las películas analizadas son:

Muestra I: Cisne negro


Muestra II: Ellas dan el golpe
Muestra III: Million Dollar Baby
Muestra IV: Quiero ser como Beckham

5. Resultados y conclusiones generales de la investigación

En primer lugar, quería hacer constatar, que este estudio es una prueba piloto, que
antecede a mi tesis doctoral, de ahí que me haya limitado a tan solo cuatro películas
para analizar, pero lo suficiente para demostrar mi objetivo principal.
Para empezar, con la búsqueda de información, he podido comprobar la falta de
material sobre esta temática. Es decir, escasean los trabajos que estudien de manera
general la imagen corporal y los roles de la mujer en películas de género deportivo.
Si es verdad, que en las últimas décadas, se ha producido un incremento de las mu-
jeres protagonistas en cine deportivo, pero ha sido un porcentaje muy mínimo, que
esperemos vaya cambiando en los próximos años, sin embargo no es que hayan dis-
minuido las películas de este género, pero el papel principal se centra más en el hom-
bre.
De hecho, Baker (2006) afirma que «las mujeres, salvo en contadas ocasiones, son
representadas con papeles de débiles animadoras y jugadoras de deportes de equipo.
En la mayoría de las películas en las que la mujer practica un deporte trasgrediendo
los cánones heteronormativos de la sociedad patriarcal, el final de la historia se pre-
senta cuando ésta abandona la carrera deportiva y se casa con el amado, volviendo
así, al lógico equilibrio patriarcal de la sociedad americana. En muchas de estas pelí-
culas se muestra el miedo de las mujeres deportistas de ser vistas como mujeres mas-
culinizadas, miedo que se produce por la no aceptación en la cultura occidental de
diferentes rasgos que se aparten del binomio clásico masculino-femenino».


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Además, con el repaso histórico de la mujer en el deporte, hemos podido compro-


bar, que en la actualidad, y tal y como menciona Pfister (2010), «las mujeres han
empezado a tomar parte en el deporte, sin ser consideradas varoniles, incluso en los
deportes típicamente masculinos tales como el boxeo, la lucha, el fútbol, el triatlón.
Las cotas de práctica deportiva femenina han subido en gran medida en las últimas
décadas, llegando a niveles casi parejos al de los hombres, e incluso superándolos en
algunos casos».
Analizando también estas películas, hemos comprobado que no se cumple lo ex-
puesto por Messner (2002), cosa que si encontraremos cuando ampliemos el número
de películas analizadas y los documentales deportivos, y nos comunica que las muje-
res deportistas «sufren cuatro formas de discriminación por los medios de comunica-
ción y que pueden ser aplicadas al cine de género deportivo como es el “Silencio”, no
existe presencia, o muy poca, de mujeres en este tipo de películas, la “Sexualización
cómica”, se muestran prácticas y actividades no serias del deporte femenino para
darle un cariz no serio y una sexualización del cuerpo femenino, las “Réplicas al de-
porte femenino”, resaltando con posturas misóginas y homofóbicas aspectos o actua-
ciones de la mujer de manera negativa y la “Incorporación selectiva de las deportis-
tas”, utilizando los personajes femeninos para intereses políticos o sociales».
Otro aspecto a destacar, es que exceptuando en el caso de una de las películas, la
protagonista es blanca, no aparece ningún personaje femenino principal de raza negra,
exceptuando a Jess de la película «quiero ser como Bechkam». Aunque en Million
Dollar Baby, la boxeadora que golpea a traición a la protagonista, si es negra, y creo
que aun aquí se sigue el estereotipo de que esta etnia que tiene el color de piel oscuro,
representa el lado malo.
Si es verdad, que en dos de las películas se observa a unas protagonistas guapas,
que cumplen perfectamente con el modelo femenino de la época como son Cisne
Negro y Ellas dan el Golpe, sin embargo en las otras dos, la estructura corporal rompe
cánones, como en el caso de Million Dolla Baby y Quiero ser como Bechkam.
También, todas son heterosexuales, aunque en Cisne Negro, hayamos podido ver
una escena donde la protagonista mantiene una relación íntima con otra de las bailari-
nas, pero se intenta evitar dar esa imagen de lesbiana, para por lo menos desde mi
humilde opinión, no estereotipar más al público, por que supongo que algunos juga-
dores de futbol, serán gays, y por ello no se les encasilla ya dándose a entender que
todos tienen que serlo. Aunque también debemos tener claro, que el tema de la homo-
sexualidad es un tema tabú, hoy día en nuestra sociedad.
Si es verdad, que aunque no sea durante toda la película, la indumentaria de la pro-
tagonista, presenta porcentajes de seducción en determinados momentos, porque
seguimos con la mentalidad puesta, que una película donde la protagonista es la mu-
jer, y que no transmita deseos al espectador hombre que la está viendo, no obtendrá
éxito de taquilla.
En mayor o menor grado, en estas cuatro películas podemos observar que el perso-
naje se encuentra dentro de la tipología de «heroína subversiva», la cual rompe con
los estereotipos por alcanzar su sueño, y no podemos catalogarlas como «cenicien-
tas», que acatan su rol de sombra del hombre, al que deben satisfacer por encima de
todo.
De todos modos, se han destacado los estereotipos más vinculados a esta temática,
pero aún nos queda un gran trabajo por delante, donde no solo analizar que nos
transmiten las películas de género deportivo donde la protagonista es una mujer, sino
intentar que este estudio cambie un poco la visión que tenemos desde hace décadas
sobre la mujer y el deporte.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Referencias

1. BAKER, A. (2006). Contesting identities. Sports in American film. Urbana: University of
Illinois Press. (www.amazon.com/Contesting-Identities-Sports-American-Film/dp/02-
52073541).
2. BLANCO, E. Y NARANJO, A. (2008). Imagen estereotipada y escaso protagonismo de
la mujer en la prensa de referencia. En A. Gómez (Coord.), Mujeres, política y medios de
comunicación. Homenaje a Clara Campoamor, 171-180. Sevilla: Fundación Audiovisual
de Andalucía.
3. DECLARACIÓN DE GRÜNWALD (1982). Declaración sobre la educación relativa a
los medios de comunicación. (www.google.es/url?sa=t&rct=j&q=declaraci%C3%B-
3n+de+grunwald&source=web&cd=1&cad=rja&ved=0CCkQFjAA-
&url=http%3A%2F%2Fwww.unesco.org%2Feducation%2Fnfsunesco%2F-
pdf%2FMEDIA_S.PDF&ei=tp-4UMOOGIT04QTUjYEg&usg=AFQjCNGsfb8Wma-
HgzqiKEhqVGoCHf-id4g).
4. GILA, J. & GUIL, A. (1999). La mujer actual en los medios: estereotipos cinematográfi-
cos. Comunicar, 12, 89-93. (dialnet.unirioja.es/descarga/articulo/262538.pdf).
5. GUARINOS, V. (2007). Mujeres en proyección. La mujer en el cine. Teoría fílmica fe-
menina. En F. Loscertales y T. Nuñez (Coords.), La mirada de las mujeres en la sociedad
de la información, 91-112. Siranda Editorial: Madrid.
6. HARGREAVES, J. (1994). Sporting females: critical issues in the history and sociology
of women’s sports. Routledge: London. (http://books.google.es/books?hl=en&lr=-
&id=kY-QNZ76D_0C&oi=fnd&pg=PP1&dq=HARGREAVES,+J.+(-
1994).+Sporting+females:+critical+issues+in+the+history+-
and+sociology+of+women%E2%80%99s+sports.+Routledge:+London.&ots-
=QC4pOHaEdY&sig=FyOw1dTPHI9boGTVLgeVxfAzmRo#v=onepage&q&f=false).
7. HUGGINS, M. (2007). And now, something for the Ladies: representations of women’s
sport in cinema newsreels 1918-1939. Women’s History Review, vol.16, núm. (5), 681-
700.
8. LOSCERTALES, F. & NUÑEZ, T. (2009). La imagen de las mujeres en la era de la co-
municación. I/C, 6, 427-462. (www.ic-journal.org/data/downloads/1257509046-42los-
certales.pdf).
9. MEC (2010). Objetivos de la Educación para la década 2010-2020. Consejo de ministros,
25 de Junio Plan de acción 2010-2011. (www.plan-de-accion-2010-2011vdefinitiva-
final.pdf).
10. MESSNER, M. A. (2002). Taking the field: women, men and sports. Minneapolis. Uni-
versity of Minnesota Press.
11. NEUENDORF, K. A., GORE, T. D., DALESSANDRO, A., JANSTOVA, P. Y SNY-
DER-SUHY, S. (2010). Shaken and stirred: a content analysis of women’s portrayals in
James Bond films. Sex Roles, 62, 747-761. (www.springerlink.com/content/ 2l540-
51618834630/fulltext.pdf).
12. PFISTER, G. (2010). Women in sport – gender relations and future perspectives. Sport in
Society, 13(2), 234-248. (www.tandfonline.com/doi/abs/10.1080/17430430903522954).
13. RAMÍREZ, G., PIEDRA DE LA CUADRA, J., RIES, F. Y RODRÍGUEZ, A. R. (2011).
Estereotipos y roles sociales de la mujer en el cine deportivo, en Barrios Vicente, I. M.
(Coord.) Mujeres y la sociedad de la Información. Revista Teoría de la Educación: Edu-
cación y Cultura en la Sociedad de la Información. Vol. 12, núm. 2. Universidad de Sa-
lamanca, 82-103. (http://campus.usal.es/~revistas_trabajo/index.php/revistatesi/article/-
view/c8274/8278).
14. WRIGHT, J. (2004). Post-structural methodologies: The body, schooling and health. En
J. Evans, B. Davies & J. Wright (Eds.) Body knowledge and control. Studies in the socio-
logy of physical education and health, 19-31.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Web de publicación de documentación económico-


contable

Silvia Muniesa Ibáñez


silvia.muniesa@uah.es

Universidad de Alcalá

Resumen. En este documento se presenta el desarrollo informático necesario


para implementar una aplicación web de publicación de documentos. El punto
de partida es un entorno de generación de documentos económico-contables,
que deberá subsistir paralelamente al nuevo entorno de publicación y suminis-
trar información para que la publicación de los documentos sea dinámica y no
represente cambios de código. El desarrollo emplea técnicas de análisis y dise-
ño orientado a objetos y distintos diagramas UML. Se plantea una solución ba-
sada en la presentación por web de relaciones de documentos con distintas ca-
racterísticas de forma, periodicidad y contenido sustentada en un sistema de
control de accesos y en la generación de archivos XML y su presentación al
usuario a través de hojas de estilo XSL [1].

Palabras clave: Proyecto informático, Diagramas UML, Perfiles de Acceso,


XML, XSL, Documentos, Formatos.

1 Introducción

En una administración pública local hay una serie de documentos que se deben gene-
rar para el seguimiento económico-contable de la entidad y para cumplir las directri-
ces establecidas por el Ministerio de Hacienda y Administraciones Públicas.
Actualmente el Sistema de Información Contable de la entidad está provisto de
procedimientos que generan documentación económico-contable de forma automática.
Gran parte de la documentación se imprime para elaborar una serie de libros diarios,
mensuales, anuales, de estado de las cuentas, estados de presupuesto...
La documentación obtenida tiene algunas características variables, como son : su
formato, procedencia, objetivo, periodicidad, obligatoriedad, agrupación y perfiles de
uso.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

2 Objetivos

Este proyecto surge con el propósito de compartir a través de la intranet la documen-


tación económico-contable de uso corporativo.
Dos objetivos principales, por un lado, agilizar la distribución de la documentación
y por otro el ahorro de papel que conlleva dicha distribución en soporte digital.
Van a existir dos entornos, uno formado por aplicaciones que generan los docu-
mentos y los almacenan en un servidor de almacenamiento, y el otro por el nuevo
entorno web de publicación de documentación, que ha de ser capaz de acceder a los
documentos y servirlos a través del navegador del usuario de la aplicación.


Fig. 1. Arquitectura del sistema

Dentro de las aplicaciones económicas también se van a establecer mecanismos de


generación de relaciones de documentos XML, y la distribución de los documentos
generados, de forma que se actualice la información de forma dinámica , y que puedan
convivir los entornos conservando su independencia.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

3 Casos de uso

Se ha realizado una toma de requisitos en forma de Casos de uso de la aplicación, en


los que se han utilizado diagramas UML de casos de uso para los escenarios principa-
les.
Los casos de uso sólo tienen en cuenta los requisitos necesarios de cara a los usua-
rios de la web de una forma general; por lo que son muy sencillos.
Se han identificado únicamente dos actores para los casos de uso, son: Usuario no
identificado, para cualquier usuario que acceda a la web, y Usuario identificado, para
usuarios que se han identificado correctamente en la aplicación.

3.1 CU01. Identificación del usuario

Permite a un usuario identificarse frente al sistema. El usuario introduce su identifica-


dor (LOGIN) y CLAVE. En el caso de una correcta identificación se mostrará el
nombre del usuarios y se proporcionara acceso a las distintas opciones asociadas al
usuario de un grupo de trabajo o usuarios de un perfil.

3.1 CU02. Identificación del usuario

Permite a un usuario identificado desconectarse del sistema. Pasara de ser Usuario


identificado a Usuario no identificado.

3.1 CU03. Acceso a relaciones de documentos

Permite a un usuario, identificado o no, acceder a las diferentes relaciones de docu-


mentos a las que tiene acceso. Podrá hacerlo a través de la navegación por las opcio-
nes de menú o por los botones de cabecera de las diferentes pantallas de relaciones de
documentos. Los botones de cabecera podrán servir para navegar entre diferentes
relaciones de documentación o entre diferentes páginas dentro de una misma relación.

3.1 CU04. Acceso a documentos

Permite a un usuario, identificado o no, acceder a los diferentes documentos a los que
tiene acceso. Podrá hacerlo a través de la navegación por las opciones de menú o por
las líneas de las relaciones de documentos mostradas en las diferentes pantallas del
sitio.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

4 Capas del proyecto

La aplicación AEDocumentos, se ha diseñado con una arquitectura de software de


capas, estructuradas tal y como se representa en la figura:

Fig. 2. Arquitectura del software


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

4.1 Presentación.

La capa de presentación se va a encargar de la interrelación con el usuario y la


navegación entre las diferentes pantallas, empleando la sesión para guardar
información . En la capa de presentación se instancian clases del modelo de datos de
la aplicación (capa dominio) y se utilizan las clases de la interfaz de programación de
la aplicación (API) para obtener servicios de capas inferiores.
En el desarrollo de esta capa se han utilizado varios tipos de diagramas UML; dia-
gramas de componentes para reflejar la composición de las diferentes páginas ofreci-
das al usuario, diagramas de actividad para reflejar la navegación entre los elementos
la aplicación web, y diagramas de secuencia para detallar la interacción entre las dife-
rentes capas de la arquitectura software.

4.2 API.

Es la capa de interfaz de programación de la aplicación, o capa de servicios técnicos,


contendrá las clases que sirven la información elaborada a la capa de presentación.
Hay dos módulos diferenciados dentro de esta capa; por un lado el relativo al acce-
so del usuario dentro de la aplicación y por otro el acceso a las declaraciones de rela-
ciones de documentos (tanto los datos de las relaciones en XML como el estilo que
siguen en XSL) y a los propios documentos.
En el módulo de accesos hay una clase AdminDelegate que maneja la conexión con
el Bean de sesión de la capa inferior.
Para el manejo de relaciones de documentos y documentos, hay un paquete lisconta
en el que hay dos clases: UtilesXML, que implementa métodos para el manejo de los
XML y XSL de las relaciones de documentos, y LisContaDispatcher, que localiza los
documentos y los sirve al usuario a través del navegador.
Los formatos de documentos aceptados por la aplicación son PDF, XML, JSON,
XLS y TXT, aunque sería sencillo ampliar la tipología.

4.3 Lógica de negocio.

La capa lógica de negocio elabora la información sobre los accesos a la aplicación


obtenida de la capa inferior Base para los servicios de la capa superior API. Dentro de
esta capa se separan el manejo de la conexión a la base de datos (EJB) del acceso a
los datos (DAO), que está estrechamente relacionado con la estructura de las tablas de
la base de datos.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

4.4 Dominio.

Transversalmente a las capas citadas está la capa de dominio, que va a contener todas
las clases del modelos de datos que serán utilizadas desde el resto de clases de la apli-
cación. Se hace fundamental para el control de los accesos a la aplicación la instancia-
ción en sesión de la clase Perfil del modelo para el usuario que accede a la aplicación.
El objeto Perfil nos va a permitir que mantengamos en sesión los objetos Usuario,
Opcion (menú de la aplicación para el usuario conectado) y una lista de acciones
(Accion[]) permitidas a ese usuario.

4.5 Base.

En esta capa se sitúan la base de datos accesible desde el servidor de aplicaciones y


los ficheros que van a contener la declaración de las relaciones de documentos, su
presentación y los propios documentos.
Una relación de documentos llevará asociados cuatro archivos, dos para la cabece-
ra y dos para el detalle, un ejemplo de archivos para una relación de documentos se
muestra en la siguiente tabla.

Tabla 1. Archivos relacionados con la relación de Listados de Contabilidad Mensuales-


Enero.
ARCHIVO Descripción del contenido
Pdfcabmes.xml Datos a mostrar en la cabecera de List.Contabilidad mensuales
Pdfcablis.xsl Hoja de estilo para transformar a HTML la cabecera de la relación
Pdfmes01.xml Datos a mostrar en el detalle de la relación
Pdflis.xsl Hoja de estilos para transformar a HTML el detalle de la relación

Los archivos de estilos se reutilizan para varias relaciones de documentos diferen-


tes; de forma que pdfcablis.xsl se utiliza para dar formato a todas las cabeceras y hay
tres hojas de estilo : pdflismes.xsl, pdflis.xsl y pdflisvar.xsl que se usan en todos los
detalles de relaciones de documentos, en función del tipo de relación que sean.
Por otra parte, la existencia de archivos XML como contenedores de información,
facilita la independencia entre los entornos generador y publicador de datos.

5 Perfiles de uso

La documentación a la que tendrá acceso cada usuario dependerá de los permisos que
se le otorguen al mismo.
Hay documentación de carácter público y otra de carácter restringido a la que sólo
podrán acceder determinados grupos de usuarios (o perfiles de uso) tras haberse iden-
tificado correctamente.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

El permiso de acceso a las páginas de la web se controla de varias formas:


x Asociando a cada opción de menú una acción, si el usuario no tiene permisos
sobre esa acción, la opción del menú no aparecerá.
x Asociando una acción a cada una de las pantallas a las que accede el usuario.
x Cuando se va a servir un documento, la aplicación controlará que el usuario
tiene permisos sobre la acción que desencadena la petición (clase LisCon-
taDispatcher).
Las acciones definidas en el sistema se agrupan en perfiles y después se les otorga a
los usuarios dichos perfiles o grupos de acciones.
En esta implementación se han definido perfiles muy sencillos que sólo agrupan
una acción, pero la información está en base de datos y modificarla no implica cam-
bios de código ni despliegues.

5.1 Perfil Público.

Tendrá acceso a documentación de carácter público: último balance de comprobación


generado (generado cada cierre contable diario), así como a los datos abiertos sobre la
ejecución presupuestaria generados trimestralmente por la entidad en formato XML y
JSON. Se podrá acceder con este perfil desde cualquier navegador con acceso a la
intranet municipal.

5.2 Perfil Tesorería

Accede a documentación específica del Servicio de Tesorería referente a la relación


con los terceros (deudores o acreedores) y cuentas bancarias. Autoriza el uso de este
perfil el Jefe del Servicio de Tesorería.

5.3 Perfil Contabilidad.

Accede a documentación para el seguimiento de la información de presupuesto de


ingresos, presupuesto de gastos, operaciones no presupuestarias, asientos contables,
compromisos de gasto, convenios, facturaciones,.... Autoriza el uso de este perfil el
Jefe del Servicio de Contabilidad.

5.4 Perfil Grupos políticos.

Podrán acceder a información de los estados contables mensuales aprobados por la


Comisión. Autoriza el uso de este perfil el Jefe del Servicio de Contabilidad.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

6 Otros elementos del sistema

Para completar el desarrollo, el desarrollo también dispone del diseño de la base de


datos, así como de una batería exhaustiva de pruebas de todos los casos de uso.
Existe un manual de usuario accesible desde la propia web, además de un manual
de administrador que describir los pasos necesarios en su instalación.
Por otra parte se dispone de scripts de creación de las tablas y ejemplos de proce-
sos para la generación de archivos XML de datos de cabeceras y detalle de relaciones
de documentos a partir de los directorios que contienen los documentos.

7 Conclusiones

La tecnología de las hojas de estilo XSL utilizadas nos ha permitido transformar los
datos de formato XML a HTML. Se consigue de esta forma la independencia entre los
datos presentados (modelos de relaciones de documentos o listas de documentos)
contenidos en XML y el diseño de su presentación por pantalla definido en los XSL.
Además, la solución permite mantener la independencia entre el entorno donde se
generan los documentos y el entorno de la aplicación web. La alimentación de docu-
mentos y listas de documentos es dinámica y no supone cambios en la codificación.
La aplicación está abierta a ampliaciones y modificaciones y al haber utilizado un
diseño de capas es relativamente sencillo adaptarla a otros usos para otros perfiles u
otros tipos de documentos.

Referencias

1. McLaughlin, B. (2001), Java y XML, Anaya multimedia, Madrid.


2. Craig Larman, C. (2003), UML y patrones, 2ª Edición, Pearson educación, Madrid.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Análisis de requisitos de seguridad


PCI DSS, SOX y LOPD,
automatizables en un firewall de base de datos

Jesús Vázquez González

Universidad de Alcalá de Henares,


Alcalá de Henares, Madrid, España

Resumen. En este artículo se presenta un resumen del trabajo realizado para la


obtención de los requisitos necesarios para el cumplimiento de los estándares y
normas de seguridad de la industria de tarjetas de pago (Payment Card Industry
Data Security Standard – PCI DSS), la ley federal de Estados Unidos Sarbanes–
Oxley (SOX) y la Ley Orgánica de Protección de Datos (LOPD),
automatizables en un firewall de base de datos. Con la obtención de estos
requisitos, se establece un punto de partida para la adecuación de los sistemas
de información de las organizaciones a las mencionadas normativas, utilizando
para ello tecnología de firewalls de bases de datos.
Palabras clave: Requisitos, seguridad, PCI DSS, SOX, LOPD, firewall, base
de datos.

1 Introducción

Las organizaciones almacenan, en sus bases de datos, información crítica para el


negocio, y en muchos casos han de cumplir con las cada vez más numerosas
normativas de seguridad.

De entre las normativas de seguridad existentes hay tres con una alta probabilidad de
aplicación en nuestro entorno, y que son:

x Estándares y normas de seguridad de la industria de tarjetas de pago


(Payment Card Industry Data Security Standard – PCI DSS)
x Ley federal de Estados Unidos Sarbanes–Oxley (SOX), también conocida
como el Acta de Reforma de la Contabilidad Pública de Empresas y de
Protección al Inversionista
x Ley Orgánica de Protección de Datos (LOPD)

Todas estas normativas deben, por tanto, ser implantadas y automatizadas por un
cortafuegos de base de datos (database firewall en inglés, usualmente denominado


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

firewall de base de datos), que garantice el cumplimiento de los mencionados


estándares y legislaciones.

1.1 Contexto

El contexto de aplicabilidad del trabajo realizado se correspondería con el de una


compañía establecida en España que quiere adecuar sus sistemas de información,
desde la perspectiva del acceso a los datos, a los estándares de seguridad y
legislaciones referenciados.

Con el objetivo de mejorar el nivel de seguridad de los pagos realizados mediante


tarjetas, la compañía de este supuesto quiere cumplir con el estándar PCI DSS,
evitando así las posibles sanciones que su incumplimiento puede conllevar por parte
de las principales marcas de tarjetas de pago.

Con el objetivo de mejorar los controles financieros y garantizar la transparencia en la


gestión financiera, incrementando la credibilidad de la organización en materia de
seguridad de contabilidad y auditoría, y que la información sea realmente confiable
evitando el fraude, fuga de inversores, etc., la compañía quiere adecuarse también a
los procedimientos establecidos por la ley Sarbanes–Oxley. Con el cumplimiento de
esta ley se pretende además que la empresa y/o sus filiales puedan cotizar en la bolsa
de valores de Nueva York (NYSE).

Por último, por imperativo legal, la compañía también está obligada a implantar los
controles y procedimientos exigidos por la Ley Orgánica de Protección de Datos.

1.2 Alcance y objetivos

El objetivo de este trabajo consiste en la obtención de la lista de requisitos


automatizables en un firewall de base de datos, de acuerdo a los estándares y
legislaciones PCI DSS, SOX y LOPD.

El alcance del trabajo no consiste por tanto en elaborar una lista con todos los
requisitos de los estándares y legislaciones mencionados, sino sólo de aquellos que
dentro del ámbito de un firewall de base de datos deberían ser automatizados.

1.3 Estándares

Los estándares y legislaciones que sirven de base al desarrollo del trabajo son los
referenciados PCI DSS, SOX y LOPD.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

2 Componentes involucrados

2.1 Firewall de base de datos

Un firewall de base de datos es un dispositivo capaz de supervisar el comportamiento


de usuarios y aplicaciones que acceden a la base de datos en tiempo real, y de
prevenir ataques y accesos no autorizados a la información sensible.

El firewall ha de poder alertar, bloquear y registrar los intentos de acceso basado en


las políticas de seguridad definidas. La implementación de estas políticas no ha de
requerir cambios en las aplicaciones, ni en las infraestructuras de bases de datos y
sistemas operativos existentes.

La siguiente ilustración muestra un sencillo esquema de utilización de un firewall de


base de datos:

Ilustración 1. Esquema de firewall de base de datos

2.2 PCI DSS

Las Normas de Seguridad de Datos de la Industria de Tarjetas de Pago se


desarrollaron para fomentar y mejorar la seguridad de los datos del titular de la tarjeta,
y para facilitar la adopción de medidas de seguridad consistentes a nivel mundial.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Las PCI DSS proporcionan una referencia de requisitos técnicos y operativos


desarrollados para proteger los datos de los titulares de tarjetas. Se aplican a todas las
entidades que participan en los procesos de las tarjetas de pago, así como a las que
almacenan, procesan o transmiten datos de titulares de tarjetas.

Estas normas constituyen un conjunto mínimo de requisitos para proteger datos de


titulares de tarjetas, que se pueden mejorar con el uso de controles y prácticas
adicionales, para mitigar otros riesgos.

A continuación, se presenta una descripción general de las 12 normas PCI DSS:

Tabla 1. Normas de seguridad de datos de la PCI: descripción de alto nivel


Norma Nº Descripción
Desarrollar y mantener 1. Instalar y mantener una configuración de firewall para
una red segura proteger los datos del titular de la tarjeta
2. No use contraseñas de sistemas y otros parámetros de
seguridad provistos por los proveedores
Proteger los datos del 3. Proteja los datos del titular de la tarjeta que fueron
titular de la tarjeta almacenados
4. Cifrar la transmisión de los datos del titular de la
tarjeta en las redes públicas abiertas
Mantener un programa 5. Utilice y actualice con regularidad los programas de
de administración de software antivirus
vulnerabilidad 6. Desarrolle y mantenga sistemas y aplicaciones seguras
Implementar medidas 7. Restringir el acceso a los datos del titular de la tarjeta
sólidas de control de según la necesidad de saber que tenga la empresa
acceso 8.
Asignar una ID exclusiva a cada persona que tenga
acceso por computador
9. Restringir el acceso físico a los datos del titular de la
tarjeta
Supervisar y evaluar las 10. Rastree y supervise todos los accesos a los recursos de
redes con seguridad red y a los datos de los titulares de las tarjetas
11. Pruebe con regularidad los sistemas y procesos de
seguridad
Mantener una política 12. Mantenga una política que aborde la seguridad de la
de seguridad de información para todo el personal
información

2.3 SOX

La Ley Sarbanes–Oxley, que surgió después de los escándalos financieros en Estados


Unidos acontecidos a finales del 2001, que hicieron desconfiar a los inversionistas de


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

la información financiera publicada por las empresas, fue propuesta por Michael G.
Oxley y el Senador Paul S. Sarbanes en el Congreso estadounidense. Fue aprobada en
Julio de 2002, por el gobierno estadounidense, para mejorar el control realizado a las
empresas y recuperar la confianza de los inversores. Su alcance afecta a las
responsabilidades de los administradores de las empresas, a las limitaciones de las
auditorías y a la transparencia de las empresas.

La trama del caso Enron, que fue la que generó los escándalos mencionados,
consistió en crear una contabilidad ficticia utilizando técnicas de ingeniería financiera.
La empresa parecía ganar cada vez más dinero, pero realmente sus cuentas eran
deficitarias. Básicamente el esquema utilizado consistía en contabilizar las deudas y
pérdidas en entidades situadas en paraísos fiscales, que no entraban dentro del sistema
financiero de la compañía.

La Ley Sarbanes-Oxley introduce una serie de novedades que básicamente consisten


en:

x Creación de una compañía encargada de supervisar las auditorías de las


compañías que cotizan en bolsa
x Prohibición de préstamos personales a los directivos de la compañía
x Transparencia en la declaración de opciones y acciones de los empleados
x Endurecimiento de las penas, ante el incumplimiento de la ley, en lo
relacionado con los informes financieros
x Protección a los empleados en caso de fraude corporativo

En la sección 302, es donde se establece la responsabilidad de la compañía por los


informes financieros, y en la sección 404 la evaluación de la gerencia de los controles
internos. Ambas secciones son por tanto las que han de ser tenidas en consideración
para poder alcanzar los objetivos perseguidos.

En la sección 302 es donde se establecen las responsabilidades penales que recaen


sobre la directiva de la empresa. Es la directiva quien firma el informe de estado de
cuentas de la empresa, sobre el que trabaja la auditoría externa. Con este cambio, la
responsabilidad en caso de fraude pasa de la auditoría externa a las personas de la
directiva de la empresa que han firmado el informe con el estado de las cuentas. La
ley establece pues, un responsable o conjunto de responsables sobre los que recaerán
las culpas en caso de fraude.

Desde la perspectiva de la solución técnica, en lo referente a la sección 302, ésta ha de


facilitar a la gerencia de la compañía la implantación de medidas y controles que
garanticen que la información financiera es confiable e íntegra, ha de prevenir por
tanto la realización de actividades fraudulentas.

En la sección 404, se introduce la exigencia de presentar un informe de control al


cierre de cada ejercicio fiscal. En este informe se establece la responsabilidad del
equipo directivo, acerca de asegurar que la estructura de control interno es la
adecuada.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Desde la perspectiva de la solución técnica, en lo referente a la sección 404, ésta ha de


facilitar a la auditoría externa la evaluación del control interno. Para ello es de vital
ayuda la elaboración automática de auditorías de los accesos realizados a los datos
financieros.

2.4 LOPD

La Ley Orgánica de Protección de Datos, de acuerdo a su artículo 1, tiene por objeto


garantizar y proteger, en lo que concierne al tratamiento de los datos personales, las
libertades públicas y los derechos fundamentales de las personas físicas, y
especialmente de su honor e intimidad personal y familiar.

La Agencia Española de Protección de Datos, que es el ente encargado de vigilar el


cumplimiento de la LOPD, clasifica las medidas de seguridad exigibles a los ficheros
y tratamientos de datos personales en tres niveles acumulativos: básico, medio y alto.1
Esta clasificación se realiza atendiendo a la naturaleza de la información tratada, en
relación con la menor o mayor necesidad de garantizar la confidencialidad y la
integridad de la misma.

A continuación se indican los ficheros y tratamientos a los que corresponde aplicar las
medidas de seguridad relativas a cada uno de los niveles que determina el Reglamento
de desarrollo de la LOPD.

NIVEL ALTO. Ficheros o tratamientos con datos:

x de ideología, afiliación sindical, religión, creencias, origen racial, salud


o vida sexual y respecto de los que no se prevea la posibilidad de
adoptar el nivel básico;
x recabados con fines policiales sin consentimiento de las personas
afectadas; y
x derivados de actos de violencia de género.

NIVEL MEDIO. Ficheros o tratamientos con datos:

x relativos a la comisión de infracciones administrativas o penales;


x que se rijan por el artículo 29 de la LOPD (prestación de servicios de
solvencia patrimonial y crédito);
x de Administraciones tributarias, y que se relacionen con el ejercicio de
sus potestades tributarias;
x de entidades financieras para las finalidades relacionadas con la
prestación de servicios financieros;
x de Entidades Gestoras y Servicios Comunes de Seguridad Social, que se
relacionen con el ejercicio de sus competencias;

En la “Guía para el cumplimiento de la LOPD” puede ampliarse esta información.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

x de mutuas de accidentes de trabajo y enfermedades profesionales de la


Seguridad Social;
x que ofrezcan una definición de la personalidad y permitan evaluar
determinados aspectos de la misma o del comportamiento de las
personas; y
x de los operadores de comunicaciones electrónicas, respecto de los datos
de tráfico y localización.2

NIVEL BÁSICO. Cualquier otro fichero que contenga datos de carácter personal.
También aquellos ficheros que contengan datos de ideología, afiliación sindical,
religión, creencias, salud, origen racial o vida sexual, cuando:

x los datos se utilicen con la única finalidad de realizar una transferencia


dineraria a entidades de las que los afectados sean asociados o
miembros;
x se trate de ficheros o tratamientos de estos tipos de datos de forma
incidental o accesoria, que no guarden relación con la finalidad del
fichero; y
x en los ficheros o tratamientos que contengan datos de salud, que se
refieran exclusivamente al grado o condición de discapacidad o la
simple declaración de invalidez, con motivo del cumplimiento de
deberes públicos.

Las medidas de seguridad de nivel básico son exigibles en todos los casos. Las
medidas de nivel medio complementan a las anteriores en el caso de ficheros
clasificados en este nivel, y las de nivel alto, cuando deban adoptarse, incluyen
también las de nivel básico y medio.

En el trabajo realizado se han supuesto necesarias las medidas correspondientes al


nivel alto, es decir las más exigentes.

3 Conclusiones y trabajos futuros

Como resultado del trabajo realizado se han presentado los requisitos automatizables
en un firewall de base de datos, de acuerdo a los estándares y legislaciones en estudio.
En concreto se han obtenido:

y PCI DSS. 70 requisitos, de diferentes niveles, que soportan el estándar de


seguridad
y SOX. 12 requisitos, que abarcan las secciones 302 y 404
y LOPD. 24 requisitos, que dan cobertura a la ley

2
Para esta categoría de ficheros además deberá disponerse de un registro de accesos.


El resultado obtenido es además la base para la realización de un proyecto de
adecuación de sistemas de información de una organización a los estándares y
legislaciones de seguridad más exigentes.

Tomando como punto de partida los requisitos obtenidos, se elaborará un marco de


trabajo para la “Adecuación de sistemas de información a las normativas de
seguridad PCI DSS, SOX y LOPD. Una aproximación PMI”.

Referencias

1. Agencia Española de Protección de Datos. (2010). Guía para el cumplimiento de la


LOPD.

2. Agrawal, R., Johnson, C., Kiernan, J., & Leymann, F. (2005). Taming Compliance with
Sarbanes-Oxley Internal Controls. 650 Harry Road, San Jose, CA 95120 &
Universitätsstraße 38, 70569 Stuttgart, Ges
$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Estudio de la plataforma Android y desarrollo de una


apliación Web Android de gestión de lugares personales

José Ignacio Sanz García, jsanz1209@hotmail.com

Abstract. El trabajo se centra en el estudio de la plataforma Android y el


desarrollo de una aplicación web Android que permite gestionar distintos
lugares del mundo, mostrando además la repercusión actual que tienen los
dispositivos móviles y haciendo un estudio comparativo de las plataformas más
importantes, ahondado de una forma más extensa en el sistema operativo
Android, que es el tema que nos ocupa. También se hace exposición de las
tecnologías empleadas en el desarrollo del trabajo y por último se especifican
los requisitos del sistema para llevar a cabo las funcionalidades perseguidas, así
cómo se refleja el análisis y diseño software de la aplicación.

1 Introduction

Los dispositivos móviles de hoy en día son mucho más que terminales con servicios
de telefonía, ya que nos proporcionan multitud de servicios y funciones, que a través
de aplicaciones podemos explotar de diferentes maneras. Esto, unido al potencial que
tienen las redes de comunicaciones como Internet y a la importancia que existe en
cuanto a la geolocalización, ya sea de individuos o elementos, nos indica el futuro
prometedor del que disfrutarán estas tecnologías.

El uso de la tecnología Android en el proyecto se debe a su carácter de libre


distribución y al crecimiento que ha sufrido en un breve espacio de tiempo
convirtiéndose en un fuerte competidor en el mercado de los sistemas operativos
móviles, hasta tal punto de que en el primer trimestre del presente año se ha
convertido en el sistema operativo móvil más usado en el mundo.

Para terminar, debo agregar que las pretensiones de este proyecto no acaban con la
implementación que se efectuará del prototipo, sino que se pretenderá elaborar un
documento que valga como referencia tanto en el uso de Android como para posibles
implantaciones reales del software a desarrollar

2 Objectives and technologies


El trabajo realizado consiste en un sistema que permite gestionar lugares personales
elegidos por el usuario. Un “lugar” es un elemento que representa un sitio físico, está
geolocalizado, tiene nombre e incluye otros datos adicionales. Con esta aplicación el


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

usuario podrá crear, buscar, modificar y eliminar sus lugares, además de


consultarlos en una lista de lugares y en un mapa de Google.

- En primer lugar el usuario debe registrarse en el sistema, para poder utilizar la


aplicación. Para ello se deberá rellenar un formulario con nombre, apellidos, fecha de
nacimiento, nacionalidad, provincia, ciudad, dirección, teléfono, email, usuario y
contraseña. Si el registro se ha realizado correctamente, se enviará un correo al email
que el usuario ha introducido en el proceso de registro, dándole la bienvenida.
- Una vez registrado, el usuario introducirá sus datos de acceso, usuario y contraseña,
y accederá a su perfil donde puede realizar las siguientes funcionalidades:

• Añadir un lugar. Se trata de una pantalla con un formulario donde el usuario


deberá introducir un título, una descripción, insertar una foto (opcional para el
usuario), así como elegir la posición del lugar en el mapa. Para añadir la foto se
accederá a la galería de Android, y se seleccionará una imagen de dicha carpeta.

• Buscar un lugar. Se trata de una pantalla con un campo de texto para introducir un
lugar, un botón para efectuar la búsqueda y un mapa para mostrar el resultado de la
búsqueda. El usuario deberá introducir en el campo de texto un lugar a buscar, y si
dicho lugar existe, se añadirá un marcador sobre el mapa. Si presionamos sobre ese
marcador, podremos añadir ese lugar al sistema. Así mismo, el usuario también podrá
localizar su ubicación actual mediante GPS, y proceder a guardarlo si lo desea.

• Lista de lugares. Se trata de una lista con los lugares almacenados por el usuario
en el sistema. Si presionamos sobre un lugar de la lista, podremos consultar sus
características y su posición en el mapa a través del marcador asociado a la posición
correspondiente. La actividad que nos permite consultar las características del lugar,
también permitirá modificar el lugar, cambiar la foto asociada al lugar o eliminar
dicho lugar si así lo deseamos. La lista también implementa un menú contextual al
pulsar largamente sobre un elemento lugar de la vista, que permitirá visualizar,
modificar o eliminar el lugar correspondiente. Del mismo modo, la lista cuenta con un
menú que permitirá eliminar el contenido de todos los lugares asociados al usuario en
la base de datos.

• Mapa. Se trata de un mapa que incluirá los marcadores de los lugares almacenados
en la base de datos por el usuario. Si pulsamos sobre un determinado marcador de un
lugar podremos consultar las características del mismo.

• Opciones. Se trata de un menú donde podremos modificar los datos de la cuenta,


salir de la cuenta si previamente nos hemos identificado en el sistema, o eliminar la
cuenta del usuario.

• Modificar datos de cuenta. Podremos modificar las características de la cuenta


referentes al nombre, apellidos, fecha de nacimiento, nacionalidad, provincia, ciudad,
dirección, teléfono y contraseña de la cuenta. Para ello se rellenará un formulario de
forma similar al proceso de registro.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

• Salir de la cuenta: Opción que nos permitirá salir de la cuenta de un determinado


usuario, y así poder identificarnos de nuevo, si lo deseamos.

• Eliminar cuenta. Se eliminará la cuenta de la base de datos.

- Recuperar contraseña: El sistema cuenta con esta opción para enviar al email
asociado a una determinada cuenta, los datos de acceso necesarios para acceder al
sistema.

Además, debemos destacar que la aplicación cuenta con soporte multidioma, es


decir, está traducida a varios idiomas para que pudiera ser usada por un rango más
amplio de usuarios (español, inglés, italiano, francés, portugués y alemán).
Para almacenar los datos, se ha utilizado una Base de Datos MySQL externa al
terminal y el usuario interaccionará con ella a través de peticiones de servicios
RESTFUL a un servidor web Apache-Tomcat para realizar operaciones de
inserción, modificación, consulta y eliminación de datos.

Para almacenar las imágenes se ha utilizado un servidor Apache configurado con


PHP y así poder subir las imágenes a través del terminal, así como también para
enviar correos a los usuarios registrados, dándoles la bienvenida, o para recuperar
la contraseña en caso de que el usuario la haya olvidado.

3 Mobile devices
Los denominados dispositivos móviles son aparatos de tamaño reducido, lo cual
optimiza su desplazamiento, con capacidad de cómputo, conexión a alguna red y
han sido fabricados para llevar a cabo diversas funcionalidades. Dentro de esta
categoría se pueden incluir entre otros, ordenadores portátiles, reproductores de
música y video, PDAs, videoconsolas , tablets, y por supuesto teléfonos móviles.
Acortando un poco la definición de dispositivo móvil para acercarnos al tema que nos
ocupa, debemos centrarnos en los teléfonos móviles, cuya funcionalidad básica
hasta hace poco tiempo ha sido la comunicación por voz a través de redes de
comunicaciones, además del envío de mensajes de texto. Sin embargo, conducidos
por los cambios sociales comentados anteriormente, estos servicios se han visto
enormemente ampliados en un corto periodo de tiempo.
Pantallas táctiles, sensores, localización por GPS, acceso a internet, cámaras de
alta resolución, conexión WiFi o hardware más potente, se han convertido
inevitablemente en propiedades básicas de estos dispositivos, y con ellas, el desarrollo
de aplicaciones que explotan dichas características.

4 Operating systems for mobile devices


Con vistas a la elaboración del trabajo, se ha empleado el sistema operativo móvil
Android cuyas particularidades serán convenientemente puntualizadas en el siguiente
capítulo. En esta sección se hablará del resto de alternativas presentes en el mercado.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Figura 1. Comparación S.O. móviles

5 Android OS
El sistema Android ha sido la plataforma escogida para efectuar el desarrollo del
trabajo, causa por la cual debe ser analizado en profundidad y así estar al tanto de sus
características primordiales.

Android es un conjunto de herramientas y aplicaciones destinadas a dispositivos


móviles. Está desarrollado por la Open Handset Alliance (capitaneada por Google) y
sigue la filosofía de código abierto.
Incluye un sistema operativo, librerías de abstracción y aplicaciones finales. Sus
principales características son:

• Kernel basado en Linux.


• Framework de aplicaciones que permite reutilizar y reemplazar sus componentes.
• Navegador web integrado basado en Webkit.
• Gráficos optimizados 2D (librería propia) y 3D (basados en OpenGL ES).
• SQLite para almacenamiento de datos.
• Soporte multimedia para los formatos más utilizados de sonido, vídeo e imagen
(MPG4, H.264, MP3, AAC, AMR, JPG, PNG, GIF).
• Soporte para telefonía GSM, Bluetooth, EDGE, 3G, Wifi, cámara, GPS,
compás, acelerómetro.
• Gran entorno de desarrollo que incluye: documentación, emulador de
dispositivos, herramientas de debug y análisis de uso de memoria/CPU, plugin
para el entorno de desarrollo Eclipse y varias utilidades complementarias.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Todo el código de Android es abierto y está liberado bajo licencia Apache v2.0 (a
excepción de las modificaciones del kernel que han sido liberadas bajo la GNU
GPLv2).

Figura 2. S.O. más utilizados en el primer cuatrimestre de 2013

El sistema Android está diseñado por capas. Como se ha dicho anteriormente,


utiliza el kernel de Linux que le da acceso a la parte hardware de los dispositivos a la
par que le permite ser compatible con muchos de los drivers creados para Linux. Su
arquitectura está completamente representada en el esquema que encontramos en la
siguiente figura.

Figura 3. Arquitectura S.O. Android


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

6 Analysis

Los diagramas de casos de uso documentan el comportamiento de un sistema desde


el punto de vista del usuario. Por lo tanto los casos de uso determinan los requisitos
funcionales del sistema, es decir, representan las funciones que un sistema puede
ejecutar. Su ventaja principal es la facilidad para interpretarlos, lo que hace que sean
especialmente útiles en la comunicación con el cliente.

En el caso de uso principal se observa que el usuario debe registrarse en el sistema


para poder disfrutar de las funcionalidades de la aplicación. Una vez registrado, puede
ocurrir que el usuario olvide sus datos de accesos, pero puede recuperarlos
introduciendo en el sistema el email utilizado en el proceso de registro. Cuando el
usuario accede a su perfil, puede optar a realizar alguna operación que facilite el
sistema, como dar de alta un lugar, buscar un lugar, consultar los lugares
almacenados, o visualizar los lugares guardados en un mapa. El usuario también
puede gestionar su cuenta de usuario si lo desea.

Figura 4. Diagrama de caso de uso principal de la aplicación


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

7 Design
El siguiente diagrama describe el diseño de la arquitectura del sistema:

Figura 5. Arquitectura software del sistema



$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

8 Conclusions
La experiencia de quien ha trabajado desarrollando aplicaciones dice que nunca una
aplicación se diseña una vez, se implementa y se instala. Siempre existen
modificaciones que hacer, siempre hay nuevas funcionalidades que o bien en un
principio no se creyeron necesarias, o bien por que el usuario final las pide más tarde
o bien por que las necesidades van variando durante el tiempo. En cuanto al resultado
obtenido de la aplicación desarrollada, aunque existen ciertos puntos que podrían
mejorarse sensiblemente, el balance final es muy positivo, habiendo creado una
herramienta funcional que añade cierto valor a las líneas de investigación actuales
sobre el desarrollo, evolución y comparación de los sistemas operativos móviles.

9 Bibliography and annexes

[1] Documentación para desarrolladores de Android.


http://developer.android.com/index.html
[2] Ciclo de vida de una aplicación.
http://developer.android.com/guide/components/index.html
[3] Sitio web colaborativo para programadores de preguntas y respuestas.
http://stackoverflow.com/
[4] Wikipedia, la enciclopedia libre.
http://es.wikipedia.org/
[5] Android Maps API Key Signup.
http://code.google.com/intl/es-ES/android/maps-api-signup.html
[6] Blog relacionado con la programación en Android.
http://www.sgoliver.net/blog/?p=1313
[7] Tutorial de Java enfocado a Android.
http://mobile.tutsplus.com/tutorials/android/java-tutorial/
[8] Android-Spa, foro de desarrolladores Android.
http://www.android-spa.com
[9] Uso de JSON en Java.
http://www.json.org/java/
[10] Servicio web de Google Maps para localizar lugares.
https://maps.googleapis.com/maps/api/geocode/json?address=busqueda&sensor=false
[11] Servicios web REST con JAVA.
http://www.vogella.com/articles/REST/article.html
http://ditec.um.es/ssdd/rest_jersey.pdf
[12] Panorama sistemas operativos móviles.
http://www.celularis.com/mercado/sistemas-operativos-moviles-2013/
[13] Sistemas operativos de los smartphones.
http://seguridadydelitosinformaticos.wordpress.com/2013/01/09/sistemas-operativos-
utilizados-por-los-smartphones/
[14] Dominio de Android en el mercado.
http://www.eleconomista.es/CanalPDA/2013/42591/el-aplastante-dominio-de-
android-en-cinco-graficos/


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Android y Arduino enlazados mediante Bluetooth

Ignacio Manosalvas González

Universidad de Alcalá, Alcalá de Henares, Madrid, España


i.manosalvas@yahoo.es

Resumen. Se ha realizado un software en Android que permite manejar


distintos dispositivos electrónicos conectados a una placa Arduino mediante
una comunicación Bluetooth. El software tiene un menú visual y fácil de
manejar que permite mediante botones e introduciendo algún texto manejar
distintos dispositivos electrónicos. Estos dispositivos son tan dispares como un
simple led, un motor de 5V, un sensor de contacto o incluso una pequeña
pantalla LCD. Para llevar a cabo esta comunicación se ha conectado a la placa
Arduino un módulo Bluetooth y se ha utilizado el propio Bluetooth que traía el
teléfono móvil.
Palabras clave: Android, Bluetooth, Arduino, dispositivos móviles,
arquitectura, lenguaje de programación, entorno de desarrollo.

1 Introducción

Con la evolución de los dispositivos móviles han evolucionado también las


aplicaciones que estos aparatos pueden soportar, estas nuevas posibilidades han dado
lugar a la aparición de nuevos conceptos y tecnologías. La característica más
importante de casi todos los teléfonos inteligentes es que permiten la instalación de
programas para incrementar el procesamiento de datos y la conectividad.
Android, que es un sistema operativo para dispositivos móviles, permite el
desarrollo de aplicaciones por terceros, para lo cual, los desarrolladores deben de
escribir código gestionado en el lenguaje de programación Java y controlar los
dispositivos (como Bluetooth) por medio de bibliotecas desarrolladas o adaptadas por
Google. Android es la plataforma líder del mercado, por ello, y porque el grado de
demanda de programadores especializados en desarrollo de aplicaciones para
terminales Android crece cada día más, he elegido esta tecnología.
Hay diversas maneras de conectar dispositivos electrónicos entre sí y una variedad
incluso mayor de conectores, enchufes y protocolos, por lo que el arte de conectar
cosas es cada día más complejo, de ahí la necesidad de la tecnología inalámbrica. He
elegido la tecnología Bluetooth ya que es automática e inalámbrica, y tiene un número
de características interesantes que pueden simplificar nuestra vida diaria.
Arduino es una plataforma de hardware libre, basada en una placa con
un microcontrolador y un entorno de desarrollo. Arduino puede recibir información
del entorno, a través de sus pines de entrada, de toda una gama de sensores (entre
ellos Bluetooth) y puede afectar aquello que le rodea controlando luces, motores,


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

zumbadores, etc. He elegido esta tecnología ya que está diseñada para facilitar el uso
de la electrónica en proyectos multidisciplinares.
Juntando los beneficios de un teléfono móvil inteligente con un sistema operativo
Android, la conexión Bluetooth y la plataforma Arduino presentaré un ejemplo
práctico de Android y Arduino enlazados mediante Bluetooth.

2 Android

Android es un sistema operativo inicialmente pensado para teléfonos móviles que está
basado en Linux. Se usa en teléfonos móviles inteligentes, ordenadores portátiles,
tablets, etc. y cuenta con aplicaciones Google y una tienda para descargar
aplicaciones gratuitas y de pago.

2.1 Versiones

A la hora de seleccionar la plataforma de desarrollo hay que consultar si necesitamos


alguna característica especial que solo esté disponible a partir de una versión. Todos
los usuarios con versiones inferiores a la seleccionada no podrán instalar la
aplicación. Por lo tanto, es recomendable seleccionar la menor versión posible que
nuestra aplicación pueda soportar.
Para ayudarnos a tomar la decisión de que plataforma utilizar puede ser interesante
consultar los porcentajes de utilización que según la página oficial de desarrolladores
de Android [1] a principios de junio de 2013 son los siguientes:

Donut
Eclair
Froyo
Gingerbread
Honeycomb
Ice Cream Sandwich
Jelly Bean

Figura. 1. Tras estudiar la gráfica podemos destacar el reducido número de usuarios que
utilizan las versiones 1.x (0.1%). Por lo tanto, puede ser buena idea utilizar como versión
mínima la 2.1 (ó 2.2) para desarrollar nuestro proyecto, dado que daríamos cobertura al 99,8%
(ó 97%) de los terminales.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Hasta el momento las versiones existentes son las siguientes:

x Apple pie: Versión Android 1.0 con nivel de API 1


x Banana bread: Versión Android 1.1 con nivel de API 2
x Cupcake: Versión Android 1.5 con nivel de API 3
x Donut: Versión Android 1.6 con nivel de API 4
x Eclair: Versión Android 2.0 con nivel de API 5. Con este mismo nombre apareció
la versión Android 2.1 con nivel de API 7
x Froyo: Versión Android 2.2 con nivel de API 8
x Gingerbread: Versión Android 2.3 con nivel de API 9
x Honeycomb: Versión Android 3.0 con nivel de API 11. Con este mismo nombre
aparecieron las versiones Android 3.1 con nivel de API 12 y la versión Android
3.2 con nivel de API 13
x Ice-cream sandwich: Versión Android 4.0 con nivel de API 14. Con este mismo
nombre apareció la versión Android 4.0.3 con nivel de API 15
x Jelly bean: Versión Android 4.1 con nivel de API 16. Con este mismo nombre
apareció la versión Android 4.2 con nivel de API 17

2.2 Arquitectura de Android

La arquitectura de Android está formada por varias capas que facilitan al


desarrollador la creación de aplicaciones. Además, esta distribución permite acceder a
las capas más bajas mediante el uso de librerías para que así el desarrollador no tenga
que programar a bajo nivel las funcionalidades necesarias para que una aplicación
haga uso de los componentes de hardware de los teléfonos.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Figura. 2. Cada una de las capas utiliza elementos de la capa inferior para realizar sus
funciones, es por ello que a este tipo de arquitectura se le conoce también como pila.

2.3 El lenguaje de programación

Android permite desarrollar aplicaciones en una variación de Java llamada Dalvik.


Además facilita todas las interfaces necesarias que accedan a las funciones del
teléfono, como por ejemplo el Bluetooth del móvil, las llamadas de teléfono, la
agenda, etc. Así se facilita la entrada de más aplicaciones desarrolladas por diferentes
programadores y los costes son muy bajos.
Todas las aplicaciones están comprimidas en formato APK, que se pueden instalar
sin dificultad desde cualquier explorador de archivos en la mayoría de dispositivos. A
la hora de programar en Android, se deben tener en cuenta una serie de conceptos
para realizar un buen desarrollo:

x Activity: Actúa como lo que comúnmente se conoce como “formulario”.


x Services: Son lo que comúnmente se conocen como procesos.
x Intent: Es un mecanismo para comunicar a las distintas aplicaciones y Activities.
x Content providers: Es el mecanismo encargado de administrar la información que
se pretende que perdure.
x Broadcast recivers: Se utilizan para que una aplicación responda a un determinado
evento del sistema.

2.4 Entorno de desarrollo

Los componentes necesarios para el desarrollo son el JDK de Java, un IDE de


desarrollo (en mi caso he escogido Eclipse), el SDK de Android y un plugin para
Eclipse.
La depuración se puede hacer de dos maneras, mediante un dispositivo móvil o
mediante un AVD (Android virtual devices). El Bluetooth Eclipse, hasta la fecha, no
consigue simularlo, por lo que yo he usado mi dispositivo móvil (HTC Wildfire S).
La estructura de proyecto en Android está formada por los siguientes directorios y
ficheros:

x Carpeta src: Esta carpeta contendrá todo el código fuente de la aplicación, código
de la interfaz gráfica, clases auxiliares, etc.
x Carpeta res: Contiene todos los ficheros de recursos necesarios para el proyecto.
x Carpeta gen: Contiene una serie de elementos de código generados
automáticamente al compilar el proyecto.
x Carpeta assets: Contiene todos los demás ficheros auxiliares necesarios para la
aplicación, como por ejemplo ficheros de configuración, de datos, etc.
x Carpeta bin: Contiene los elementos compilados de la aplicación y otros ficheros
auxiliares.
x Carpeta libs: Contendrá las librerías auxiliares, normalmente en formato “.jar” que
utilicemos en nuestra aplicación Android.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

x Fichero AndroidManifest.xml: Este XML se genera automáticamente al crear un


proyecto y en él se declaran todas las especificaciones de nuestra aplicación.
Cuando hablamos de especificaciones hacemos mención a las Activities
utilizadas, los Intents, bibliotecas, el nombre de la aplicación, el hardware que se
necesitará, los permisos de la aplicación, etc.

3 Bluetooth

La tecnología Bluetooth es una tecnología de comunicación de corto alcance que es


simple, segura y funciona en cualquier lugar. Se puede encontrar en miles de millones
de dispositivos, desde teléfonos móviles y ordenadores hasta en dispositivos médicos
y productos de entretenimiento de uso doméstico. Esta tecnología intenta reemplazar
los dispositivos conectados mediante cables mientras mantiene altos niveles de
seguridad.
Las características clave de la tecnología Bluetooth son la robustez, baja necesidad
de energía y poco coste. Las especificaciones de Bluetooth definen una estructura
uniforme para que una amplia gama de dispositivos pueda conectarse y comunicarse
entre sí.
Cuando dos dispositivos Bluetooth se conectan entre sí, se llama emparejamiento.
La estructura y la aceptación mundial de la tecnología Bluetooth implican que
cualquier dispositivo Bluetooth, en casi todo el mundo, puede conectarse a otro
dispositivo Bluetooth localizado en sus proximidades.
Las conexiones entre dispositivos electrónicos Bluetooth permiten a estos
dispositivos comunicarse sin cables en un corto alcance, las redes creadas de esta
manera son conocidas como piconets.

3.1 Información técnica

Las comunicaciones se realizan por radiofrecuencia de forma que los dispositivos no


tienen que estar alineados y pueden incluso estar en habitaciones separadas si la
potencia de transmisión es suficiente. Estos dispositivos se clasifican como “Clase 1”,
“Clase 2” o “Clase 3” en referencia a su potencia de transmisión, siendo totalmente
compatibles los dispositivos de una clase con los de las otras.

Tabla. 1. Información sobre la potencia de transmisión sacada de la página oficial de Bluetooth


[2].

Clase Potencia máxima Potencia máxima Alcance


(mW) (dBm) aproximado
1 100 mW 20 dBm 100 metros
2 2.5 mW 4 dBm 10 metros
3 1 mW 0 dBm 1 metro


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Los dispositivos con Bluetooth también pueden clasificarse según su ancho de


banda:

Tabla. 2. Información sobre el ancho de banda sacada de la página oficial de


Bluetooth [2].
Versión Ancho de banda
1.2 1 Mbit/s
2.0 + EDR 3 Mbit/s
3.0 + HS 24 Mbit/s
4.0 24 Mbit/s

3.2 Arquitectura hardware

El hardware que compone el dispositivo Bluetooth está compuesto por dos partes:

x Un dispositivo de radio, encargado de modular y transmitir la señal.


x Un controlador digital, compuesto por:
o Una CPU en la que corre un software denominado Link Manager
cuya función es la de comunicarse con otros dispositivos por medio
del protocolo LMP.
o Un procesador de señales digitales (DSP - Digital Signal Processor)
llamado Link Controller (o controlador de Enlace) que se encarga
del procesamiento de la banda base y del manejo de los protocolos
ARQ y FEC de la capa física; además, se encarga de las funciones
de transferencia, la codificación de audio y el cifrado de datos.
o Las interfaces con el dispositivo anfitrión.

3.3 Perfiles

En esencia los perfiles son un conjunto de mensajes y procedimientos de la


especificación Bluetooth para una aplicación de uso concreta de los equipos. Para que
un dispositivo pueda utilizar la tecnología inalámbrica Bluetooth, debe disponer de
como mínimo un perfil Bluetooth. Estos perfiles son guías que indican los
procedimientos por los que los dispositivos equipados con tecnología Bluetooth se
comunican entre sí. Existe un amplio abanico de perfiles que detallan los diferentes
tipos de uso y aplicaciones de la tecnología inalámbrica Bluetooth. Al seguir las
directrices proporcionadas en las especificaciones Bluetooth, los desarrolladores
pueden crear aplicaciones compatibles con otros dispositivos que se ajusten a
este estándar.
Los tipos perfiles existentes son las especificaciones basadas en GATT (Generic
Attribute Profile), los perfiles tradicionales y los protocolos.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

4 Arduino

Es una plataforma electrónica de código abierto para la creación de prototipos que


está basada en software y hardware flexibles y fáciles de usar. Se puede usar Arduino
para crear objetos interactivos: leyendo datos de interruptores o sensores, y
controlando salidas físicas como leds y motores. El lenguaje de programación de
Arduino es una implementación de Wiring.

4.1 Hardware open-source

El hardware open source es una forma de permitir que otra gente pueda ver tus
diseños, y mejorarlos. Linux y Apache son un ejemplo perfecto: todo lo que hace
funcionar la web es open source. Si tuvieras que pagar a alguien, o hablar con alguien,
o conseguir una licencia cada vez que quisieras hacer una página web, no tendríamos
el mundo de información compartida que tenemos.

4.2 Lenguaje de programación

Un sketch es la unidad de código que se sube y ejecuta en la placa Arduino. Las


principales funciones son:

x setup(): Se ejecuta cuando se conecta la placa a la fuente de alimentación.


x loop(): Se ejecuta consecutivamente.
x pinMode(pin, modo): Configura el pin como una entrada o una salida.
x digitalWrite(pin, valor): Escribe un valor en el pin digital.
x digitalRead(pin): Lee un valor del pin digital.
x delay(ms): Pausa el programa por un tiempo determinado en milisegundos.

4.3 Entorno de desarrollo

El entorno de código abierto Arduino funciona en Windows, Mac OS X y Linux.


El entorno está constituido por un editor de texto para escribir el código, un área de
mensajes, una consola de texto, una barra de herramientas con botones para las
funciones comunes, y una serie de menús.
Este entorno de desarrollo permite la conexión con el hardware de Arduino para
cargar los programas y comunicarse con ellos.

4.4 Arduino Mega 2560 R3

Según la página oficial de Arduino [3] Arduino Mega 2560 es una placa
microcontrolador basada en el ATmega2560. Esta placa tiene:


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

x 54 pines digitales de entrada/salida (de los cuales 14 se pueden usar como


salidas PWM)
x 16 entradas analógicas
x 4 UARTs (puertos serie por hardware)
x Un oscilador de cristal de 16 MHz
x Una conexión USB
x Un conector de alimentación
x Una cabecera ICSP
x Un botón de reinicio

Contiene todo lo necesario para hacer funcionar el microcontrolador; para hacerlo


funcionar simplemente hay que conectarlo a un ordenador con un cable USB o
mediante la alimentación de un transformador o una pila.
Arudino Mega 2560 es una actualización de Arduino Mega, el cual ha sido
sustituido. La versión 3 de la placa tiene las siguientes mejoras frente a la versión 1 y
2: Asignación de pines 1.0, circuito de reinicio más fuerte, el mega 16U2 sustituye al
8U2.

5 Conclusiones

En este proyecto se ha usado Android ya que es un sistema operativo que está


presente en la mayoría de los dispositivos móviles y tiene un gran futuro.
De este proyecto se puede obtener además un primer contacto con la tecnología
Arduino con múltiples y diversos dispositivos externos.
La comunicación entre los dispositivos Android y Arduino es mediante Bluetooth,
ya que es una tecnología que cubre las necesidades de comunicar dos dispositivos
cercanos sin más que un emisor y un receptor, como los infrarrojos, pero con el
beneficio que no es necesario estar apuntando directamente al otro dispositivo.
Con este proyecto se abre una nueva vía de integración de dispositivos domóticos y
móviles accesible a técnicos no expertos en la materia.

6 Referencias

1. Dashboard – Android developers, página oficial para desarrolladores de Android


con información sobre las versiones de las plataformas Android.
(http://developer.android.com/about/dashboards/index.html) (junio 2013)
2. Basics – Bluetooth Technology Website, página oficial de Bluetooth con
información básica sobre la tecnología inalámbrica Bluetooth
(http://www.bluetooth.com/Pages/Basics.aspx) (junio 2013)
3. Arduino – ArduinoBoardMega2560, página oficial de Arduino con información
técnica sobre la placa Arduino Mega 2560 R3
(http://arduino.cc/en/Main/ArduinoBoardMega2560) (junio 2013)


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Estereoscopı́a como tecnologı́a de futuro

Ricardo Jiménez Martı́nez1 , Hilario Gómez Moreno1 , Pilar Lacasa Dı́az2


1
Departamento de Teorı́a de la Señal y Comunicaciones.
Escuela Politécnica Superior. Universidad de Alcalá.
2
Departamento de Filologı́a, Comunicación y Documentación.
Facultad de Documentación. Universidad de Alcalá.
{ricardo.jimenez, hilario.gomez, p.lacasa}@uah.es

Resumen Este trabajo pretende justificar la importancia de la imagen


estereoscópica como tecnologı́a de futuro en nuevas aplicaciones. A partir
de sus antecedentes y las diferencias con la situación actual, se intenta
justificar un cambio en la tendencia que la imagen 3D ha tenido en etapas
anteriores. La estereoscopı́a siempre aparece directamente relacionada
con el cine, sin embargo actualmente, la imagen 3D es una herramienta
utilizada en otras muchas aplicaciones como son la biomedicina, la indus-
tria, la educación, el ocio, etc. A través de los datos estudiados se puede
observar la evolución de esta tecnologı́a ası́ como hacer una predicción
de futuro. Aunque lo relacionado con las nuevas tecnologı́as tiene una
predicción complicada, si que es posible encontrar tendencias de hacı́a
donde puede evolucionar la imagen 3D.

Palabras clave: Estereoscopı́a, 3D, investigación, aplicaciones.

1. Introducción.

Desde que Charles Wheatstone, en 1840, crease el primer estereoscopio hasta


la actualidad, la tecnologı́a 3D ha ido evolucionando [1]. Esta transformación se
ha producido en cuatro etapas claramente diferenciadas hasta llegar a la actual
[2]. Cada una de estas etapas ha tenido como momento cumbre el estreno de
alguna pelı́cula que ha supuesto la diferencia con etapas anteriores. La última
etapa ha estado marcada por el estreno de ”Avatar”de James Cameron (2009).
En esta como en etapas anteriores, tras el estreno de esa pelı́cula especial, se
estrenaron otras muchas pelı́culas 3D, sin embargo después de un corto periodo
de tiempo la imagen 3D se fue diluyendo. En principio la etapa actual se com-
porta de forma similar a las etapas anteriores aunque se producen circunstancias
diferenciales. Ha sido necesario actualizar las salas de cine para adaptarlas a la
nueva tecnologı́a digital 3D, con la correspondiente inversión por parte de las
empresas propietarias. El número de salas digitales ha crecido considerablemen-
te en los últimos años y concretamente, el de salas digitales 3D ha tenido un
boom en los años 2009 y 2010 [3]. Hay otra diferencia muy importante respecto
a etapas anteriores, la imagen estereoscópica se ha introducido en el hogar de


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

forma mayoritaria a través de los televisores 3D, disponibles en muchas casas


debido a un precio asequible para la mayor parte de la población.
Actualmente el mundo del cine no es la única área que puede sacar provecho
de esta tecnologı́a y por lo tanto este es el momento en el que la imagen 3D puede
tener su espacio en muchas otros campos fuera del cine, tal como la biomedicina,
la industria, la educación, el ocio, etc.
Este trabajo tiene como objetivo mostrar las posibles diferencias entre esta
etapa y las anteriores las cuales pueden dar como resultado que la imagen 3D
no vuelva a caer en el olvido hasta que un director la vuelva a recuperar para
una nueva pelı́cula.
Este trabajo se ha dividido en 5 secciones. En la sección 2 se hace un breve
repaso a los principios básicos de la visión en los seres vivos y su relación con
la imagen esteresocópica. La sección 3 hace una retrospectiva sobre la historia
de la imagen 3D para contextualizar la situación actual de la misma. La sección
4 enumera algunas de las principales aplicaciones en la que se utiliza la imagen
3D, ası́ como su futuro. Por último la sección 6 presenta las conclusiones de este
trabajo.

2. Imagen estereoscópica Vs. visión de los seres vivos.

La principal diferencia entre la visión humana y la imagen captada por cual-


quier cámara convencional es el realismo, relacionado principalmente con la pro-
fundidad del escenario u objeto que se está observando [4]. Una imagen plana,
2D, carece de profundidad aunque sea observada con los dos ojos. Cuando utiliza-
mos una cámara convencional, solamente disponemos de una lente para capturar
la imagen, sin embargo cuando observamos un paisaje utilizamos los dos ojos si-
multáneamente, a modo de dos lentes, por lo tanto la diferencia no solo está en la
forma de observar la imagen sino en la forma de capturarla, para que ésta tenga
efecto estereoscópico. Posteriormente el cerebro será el encargado de superponer
las dos imágenes capturadas, creando la ilusión de profundidad [5].
Utilizando las cámaras adecuadas y con una correcta configuración de los
equipos se obtiene la imagen estereoscópica, formada por dos imágenes ligera-
mente diferentes que deben ser enviadas a cada uno de los ojos de forma indepen-
diente. Para que al espectador le lleguen las dos imágenes simultáneamente pero
de forma separada a cada ojo, se encuentran en el mercado diferentes sistemas,
la mayorı́a de los cuales tienen como factor común la necesidad de utilizar algún
tipo de gafas para poder disfrutar del efecto de la profundidad de la escena. Las
primeras gafas que se utilizaron estaban formadas por una lente de color rojo y
otra de color cyan, la imagen que se obtenı́a carecı́a de brillo y los colores eran
apagados. Las gafas que se utilizan actualmente, activas o pasivas, han mejorado
considerablemente la calidad de la imagen, obteniéndose mayor realismo en la
escena presentada.
A pesar de la evolución del sistema 3D, la necesidad de utilizar gafas, para
disfrutar de la imagen estereoscópica, puede suponer un gran inconveniente para
el futuro de esta tecnologı́a, es por ello que muchas son las empresas que se en-


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

cuentran investigando en pantallas o sistemas que no necesiten gafas para poder


disfrutar de una emisión en 3D. A estos sistemas se les denomina sistemas auto-
estereoscópicos y es de esperar que en breve sean comercializados. La empresa
norteamericana Rembrandt 3D [6], ha presentado en junio de 2013 su monitor
autoestereoscópico (AS3D), sin embargo todavı́a no ha sido posible analizar en
profundidad la calidad de este producto.

3. Retrospectiva de la imagen estereoscópica.


Como se ha comentado previamente, el motor que ha impulsado el desarrollo
del 3D ha sido el mundo del cine. Gracias a él se ha producido la inversión
necesaria en investigación para la mejora de la calidad del producto final. Ha
sido necesario investigar en nuevos equipos de captura y sistemas de proyección
tanto para salas de cine como para pantallas de televisión. A lo largo de la historia
se conocen cuatro etapas en el desarrollo de la imagen estereoscópica [2,7], todas
ellas han estado ı́ntimamente relacionadas con la producción y proyección de
alguna pelı́cula. En la actualidad el cine 3D se encuentra en su cuarta etapa que
llegó a su momento cumbre con el estreno de la pelı́cula ”Avatar”. Esta supuso un
éxito de espectadores y taquilla. A diferencia de lo que habı́a ocurrido en etapas
anteriores, en ésta se ha producido no solo una mejora tecnológica importante
sino que además el mundo de la estereoscopı́a ha sobrepasado las fronteras del
cine y se ha introducido en muchos otros sectores, con una importante novedad,
también ha llegado al gran público, se ha introducido en el hogar.
Según NPD DisplaySearch [3], compañı́a dedicada a realizar estadı́sticas a
nivel mundial sobre el mundo de los monitores y pantallas, se está produciendo
una evolución muy importante en la adquisición de televisores de tecnologı́a
3D para los hogares. Es de crucial relevancia centrarse en la presencia de los
televisores 3D en los hogares de todo el mundo ya que esto implica un aspecto
muy relevante en el futuro de esta tipo de tecnologı́a. En la figura 1 se muestra
la tendencia en la compra de televisores con tecnologı́a 3D a lo largo de los
años. Del mismo modo a lo sucedido en otras materias relacionadas con el 3D,
el año 2011 supuso un boom en adquisición de televisores 3D, a partir de ese
momento la adquisición se estabiliza a valores más o menos constantes, dando
como resultado que para el año 2019 pueda haber unos 225 millones de unidades
en todo el mundo, lo cual supondrı́a aproximadamente el 50 % de las pantallas
de televisión en los hogares.
Actualmente la mayorı́a de aplicaciones que utilizan imagen estereoscópica
no tienen gran utilidad en el hogar, salvo el caso de los videojuegos.

4. Aplicaciones
Muchas son las aplicaciones que pueden utilizar la tecnologı́a 3D como he-
rramienta o medio de desarrollo esto abre nuevas lı́neas de investigación para
dar servicio y cobertura a estas aplicaciones. Ésta es la gran diferencia con eta-
pas anteriores y supone un gran puntal para el mantenimiento de la imagen


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

250 450
400

Millones de unidades
200 350

% de incremento
300
150
250
200
100
150
100
50
50

0 0

2011

2012
2010

2014

2016

2017
2008

2009

2013

2018

2019
2015

2011

2012
2010

2014
2013

2016

2017
2008

2009

2018

2019
2015
Figura 1. Evolución en la venta de televisores con tecnologı́a 3D

estereoscópica durante largo tiempo. En la biomedicina el cirujano va a poder


situarse dentro de un escenario real sin la necesidad de estar en él, esto va a
suponer mejorar los resultados de la medicina no inmersiva; en la educación el
docente añade una nueva herramienta para realizar presentaciones más reales
y que el estudiante pueda tener una visión más exacta en ciertos procesos que
ası́ lo requieren. Cabe destacar la importancia de buscar aplicaciones prácticas
para aquellos usuarios que dispongan de una televisión 3D en su casa, de modo
que aprovechen las posibilidades que estos equipos pueden ofrecer [8].

4.1. Cine.

El 3D es la última apuesta del cine actual, no tiene nada que ver con las
etapas anteriores. La calidad ha dado un gran salto cualitativo, se ha pasado
del sistema anaglifo, donde se producı́a una gran perdida en el color y el brillo
de la proyección, a los sistemas polarizados cuya calidad se asemeja a la de una
pelı́cula 2D. El espectador, en busca de nuevas sensaciones, ha encontrado en
el cine 3D una nueva dimensión, la profundidad que da mayor realismo al cine.
Los directores han aprendido de etapas anteriores sobre todo al intentar poner
el argumento por delante de la exhibición de efectos 3D. A medida que el cine
3D se va asentando se ha ido dando mayor naturalidad a la historia eliminando
efectos superfluos.
En los últimos años el número de salas digitales con tecnologı́a 3D ha crecido
considerablemente, tras el boom inicial, principalmente debido a la necesidad
de disponer de este tipo de salas, este crecimiento se ha estabilizado en una
evolución más moderada pero constante. Las nuevas salas que van surgiendo
dispondrán de tecnologı́a digital y es de suponer que un gran número de ellas
además será con tecnologı́a 3D.
A partir de las gráficas de la figura 2, obtenidas de la información proporcio-
nada por la ”Motion Picture Association of America”, en su estudio de mercado
de 2012 [9], se puede observar la evolución, tanto en cantidad como proporcional,
del número de salas digitales a lo largo de todo el mundo. Dentro de las salas
digitales es importante ver la evolución de las salas 3D. A partir de 2008, año en


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~
Total de salas digitales Total de salas 3D Incremento de salas digitales Incremento de salas 3D
000 300
000
250
000

Incremento en %
000
200
000
000 150
000
100
000
000
50
000
0 0
2008 2009 2010 2011 2012 2008 2009 2010 2011 2012

Figura 2. Evolución del número de salas digitales y salas 3D en todo el mundo [9]

los que empiezan a implantarse las salas digitales, el incremento en número de


este tipo de salas es prácticamente constante año tras año, no ocurre lo mismo
en el caso de salas 3D en el que se produce un pico muy fuerte en el año 2009
y luego cae bruscamente hasta estabilizarse y alcanzar un régimen permanente,
una vez que el 3D ya ha quedado introducido.

4.2. Biomedicina.

La incorporación de las cámaras estereoscópicas en el mundo de la cirugı́a no


invasiva proporciona al cirujano una visión más real de la zona a intervenir, a
diferencia de lo que sucede con las cámaras convencionales. En un estudio reali-
zado por el Instituto Fraunhofer de Telecomunicaciones [10] sobre la utilización
de tecnologı́a 3D en intervenciones de tipo quirúrgico, un número elevado de
cirujanos respondieron positivamente a la utilización de sistemas 3D con o sin
gafas, aunque precisaron de la necesidad de que se produzcan algunos ajustes
en la tecnologı́a, especialmente para eliminar las gafas. En el experimento que
se realizó, se probaron un total de cuatro sistemas: 2D, 3D con y sin gafas y un
aparato de espejos que sirvió de modelo ideal en 3D. Los resultados fueron: con
el modelo 3D se aumentó la precisión y se redujo el tiempo de sutura respecto
al mismo procedimiento con 2D. Sorprendentemente el sistema 3D sin gafas no
estuvo a la altura de lo que se esperaba y los resultados fueron muy similares a
los que se obtuvieron con la tecnologı́a 2D.
Otros campos como la microcirugı́a, la oftalmológica o la endoscopia pueden
sacar mucho rendimiento de la imagen tridimensional. El uso de esta tecnologı́a
también se utiliza en microscopios estereoscópicos para presentar en una pantalla
adecuada la información tridimensional de la imagen que se está visualizando.
Marcas como Zeiss, Olympus o Leyca disponen de diversos modelos 3D [11].

4.3. Educación.

Cada vez es mayor la implantación de las TIC en el entorno educativo como


apoyo en la mejora de la enseñanza. Siempre se ha dicho que una imagen vale más
que mil palabras y en este caso, si la imagen es estereoscópica este valor es todavı́a


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Figura 3. Sistema de intervención quirúrgica con imagen estreoscópica

mayor, sobre todo en materias como la medicina, la biologı́a, la arquitectura, etc


[12]. La imagen 3D aporta al estudiante un mayor nivel de conocimiento que
el aportado por una imagen bidimensional, sobre todo es importante el uso de
este tipo de imágenes en aquellos casos en los que es importante ver los objetos
dentro de un espacio.
En las facultades de medicina o similares, no siempre es posible disponer de
órganos o cuerpos para que los alumnos puedan ver la materia estudiada, es por
ello que es posible encontrar pelı́culas o grabaciones que permiten compensar la
falta de material real. Las imágenes 3D ayudarı́an en estos casos a dar un mayor
realismo y a tener una mejor visión de las prácticas. La imagen estereoscópica
no es la sustituta del material real pero si que ayuda en caso de ausencia de
este. Con la ayuda de la imagen 3D se pueden describir conceptos complejos, de
determinadas materias, de una forma visual mucho más atractiva.
Por ejemplo, en el estudio de los huesos del cráneo, con las imágenes bidi-
mensionales no es posible captar todos los detalles en conjunto, sin embargo
mediante la imagen tridimensional el alumno podrá acercarse más a la realidad
de un cráneo real tal como se muestra en la figura 4, imagen utilizada en una
facultad de medicina para mostrar a los alumnos los huesos del cráneo [13].
No solo los estudios biosanitarios son los grandes beneficiados de la imagen
tridimensional, la arquitectura o la geografı́a [14] son otras materias que pueden
utilizar este tipo de tecnologı́a para mostrar mayor realismo a sus estudiantes y
por supuesto en los estudios de medios audiovisuales.
Dentro del mundo de la educación son importantes las lı́neas de investigación
que la imagen estereoscópica ha generado. Del mismo modo que en otras cien-
cias relacionadas con el 3D, 2011 supuso un gran momento para nuevas lı́neas
de investigación y aunque ese boom no se ha mantenido en su nivel alto sigue
habiendo una lı́nea constante de artı́culos de investigación. A partir de los datos
proporcionados por IEEE (Institute of Electrical and Electronics Engineers), se


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Figura 4. Imágen estereoscópica de un cráneo humano

observa que el número de artı́culos publicados sobre imagen 3D sigue una es-
tructura similar a lo ocurrido con las pantallas 3D o las salas digitales 3D, es
decir, se produce un aumento en la producción alrededor de 2010 para estabi-
lizarse en años sucesivos. En la figura 5a se muestra la evolución del número
de artı́culos de investigación relacionados con el cine 3D y en la figura 5b datos
análogos pero referidos al número de artı́culos publicados relacionados con la
imagen estereoscópica, en general.

60 30000

50 25000

40 20000

30 15000

20 10000

10 5000

0 0
2006 2007 2008 2009 2010 2011 2012 2006 2007 2008 2009 2010 2011 2012

(a) (b)

Figura 5. Artı́culos publicados por IEEE, relacionados con la imagen estereoscópica.

5. Conclusiones.

A través de los datos mostrados en este trabajo se ha intentado justificar el


futuro prometedor de la tecnologı́a de la imagen estereoscópica.
Para llegar a esta conclusión se han enumerado las principales diferencias
entre esta última etapa y las anteriores. Anteriormente la imagen estereoscópica
se limitaba al mundo del cine o la fotografı́a, sin embargo ahora la imagen 3D


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

se ha incorporado a muchas otras disciplinas como herramienta de trabajo. La


medicina, la educación o el ocio, son algunas de las parcelas donde esta tecnologı́a
se está abriendo un hueco importante, pero quizá el hecho diferencial que va a
marcar el futuro de la imagen tridimensional es la introducción de pantallas 3D
en millones de hogares.
Serı́a interesante desarrollar aplicaciones concretas para este tipo de televiso-
res de modo que éstos saquen el rendimiento adecuado a la tecnologı́a que llevan
implementada y que llegarı́a a un mercado bastante amplio.
Por otra parte está la emisión de programas especı́ficos en 3D. El usuario
que quiere disfrutar de contenidos 3D no tiene las mismas caracterı́sticas que
el usuario de televisión normal, el ver un producto 3D supone estar con mayor
concentración delante de la pantalla, es por ello que quizá los canales que emitan
en 3D deberı́an ser a la carta, para que el espectador pueda disfrutar cuando
y donde quiera. El futuro de los canales que emitan en 3D está en la televisión
por cable o a través de internet, donde es más posible que el espectador pueda
seleccionar los contenidos que quiere ver.

Referencias
1. Zone, R.: 3D Revolution: The History of Modern Stereoscopic Cinema. University
Press of Kentucky (2012)
2. Epelbaum, S.: Historia de la estereoscopı́a y sus aplicaciones. Archivos de oftal-
mologı́a de Buenos Aires 81 (2010) 62–67
3. DisplaySearch: Tv to drive global demand for 3D-ready devices. (2012) Disponible
en: http://www.displaysearch.com/.
4. Hall, J.E.: Guyton y Hall. Tratado de fisiologı́a médica. Elsevier (2011)
5. Mendiburu, B.: 3D movie making. United States of America: Focal Express (2009)
6. Rembrandt3D: Auoestereoscopic 3D. http://rembrandt3d.com/ (2013)
7. Pablo, F.S.: La estereoscopı́a como herramienta de comunicación audiovisual. PhD
thesis, Universidad de Palermo., Buenos Aires. Argentina (2011)
8. Xiao, X., Javidi, B., Martinez-Corral, M., Stern, A.: Advances in three-dimensional
integral imaging: sensing, display, and applications [invited]. Applied optics 52(4)
(2013) 546–560
9. M.P.A.A.: Theatrical market statistics. (2013) 6–7
http://www.mpaa.org/resources/3037b7a4-58a2-4109-8012-58fca3abdf1b.pdf.
10. Dr Ulrich Leiner, D.M.W.: New opportunities for 3D technology in medicine.
Fraunhofer-presse (2013)
11. Leica: Leica microsystems truevision. http://www.leica-microsystems.com/news-
media/news/news-details/article/leica-microsystems-debuts-first-3d-surgical-
microscopes-with-truevisionR-technology-inside-at-aans/ (2013)
12. William, A.: Stereoscopic visualization of scientific and medical content for edu-
cation: Seeing in 3D. In: eScience, 2008. eScience’08. IEEE Fourth International
Conference on, IEEE (2008) 319–320
13. Zottola, D., Hernández, A., Serra, R.: Anaglifos en la enseñanza de la ingenierı́a
biomédica. In: V Latin American Congress on Biomedical Engineering CLAIB
2011 May 16-21, 2011, Habana, Cuba, Springer (2013) 362–365
14. Slocum, T.A., Dunbar, M.D., Egbert, S.L.: Evaluating the potential of the geowall
for geographic education. Journal of Geography 106(3) (2007) 91–102


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

La calidad del Software a través de sus métricas.

Diaz-Caneja, I.
Departamento de Ciencias de la Computación
E.T.S. de Ingeniería Informática
Universidad de Alcalá
28871 Alcalá de Henares (Madrid)
Email: igcaneja@hotmail.com

Resumen: este trabajo explica cómo medir la calidad del software con unas
pautas y unos indicadores apropiados. En el Software no es fácil definir la
calidad, por ello se han establecido modelos e indicadores para intentar
conseguirlo. Con el fin de analizar los modelos se ha usado la norma ISO-9126;
norma de referencia en la calidad del software. En el documento se analiza
brevemente alguna de las herramientas de medición de software para ADA.
Palabras clave: métricas, calidad, software, programas de métricas.

1. Introducción

Medir se define como [1]: comparar una cantidad con su respectiva unidad, con el fin
de averiguar cuántas veces la segunda está contenida en la primera.
Saber qué y para que se mide, en definitiva se trata de conocer que se busca
conseguir con la medida. Reducir los costes de mantenimiento, hacer que el código
sea más legible y modificable, reducir el esfuerzo, son los objetivos de las métricas.
Con la medida ya se conoce el estado actual del objeto medido, ya se está ganando
pues tenemos una “foto” real de la situación. El fin que se busca con las métricas es
obtener un producto con mayor calidad, por lo que hay que mejorar las métricas que
están fuera de los parámetros preestablecidos.
Con las diferentes métricas lo que se intenta establecer son los parámetros para
conocer la calidad que tiene un programa, fichero o subprograma concreto.
El estándar ISO 9126 de calidad en su primera parte, clasifica la calidad del
software en un conjunto estructurado de características y sub características [21]:
funcionalidad; fiabilidad; usabilidad; eficiencia; mantenibilidad; portabilidad.

2. Métricas de Software

Las medidas en el software pretenden conocer tres aspectos importantes del código
fuente que son: calidad, fiabilidad y productividad. La estimación siempre debe estar
acompañada de un histórico dado para poder prever el esfuerzo y el tiempo que deben
invertirse. Dentro de las medidas de producto que son en las que se va a centrar este
capítulo resaltan los indicadores que se van a listar a continuación.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

2.1. LOC (Lines of code) líneas de código

La definición más aceptada en el mundo del software es la que introdujo Hewlett-


Packard referenciada por Grady y Caswell [5]. LOC: es una sentencia de código no
comentada, cualquier sentencia en el programa excepto comentarios y líneas en
blanco. Según Conte, Dunsmore, Shen y Zage [6]: una línea de código es cualquier
línea de texto en un programa que no sea una línea de comentario o una línea en
blanco, independientemente del número de declaraciones o fragmentos de
declaraciones sobre la línea.
Aunque LOC es la abreviatura más usada, algunos manuales también usan
NCLOC (non comented line of code). ELOC (effective line of code). CLOC
(commented line of code) DC (density of comments) en un programa: DC = CLOC /
LOC. C porcentaje de cobertura de la aplicación, que se calcula: C = ELOC *100 /
LOC. NSTAT (number of Stament): esta es una métrica similar a LOC pero hay que
tener en cuenta que una sentencia ejecutable puede ocupar varias líneas de código.

2.2. Métricas de Complejidad

2.2.1. Métricas de Halstead

Define que un programa es una colección de palabras clasificadas como operadores y


operandos [4][7]. Son usadas para medir el mantenimiento y la fiabilidad. Predecir el
ratio de error y el esfuerzo de mantenimiento. Son capaces de medir la calidad del
código siendo fáciles de calcular. Por ello son muy útiles para la planificación de los
proyectos. Por el contrario tiene poco uso en modelos de predicción, y son
dependientes de modelos completos. Su cálculo es muy complejo [11].

Tabla 1. Métricas de Halstead y sus umbrales [4] [8].


Métrica Formula Umbral
Vocabulario (µ) µ = µ1 + µ2
Longitud (N) N = N1 + N2 < 3000
Volumen (V) V = N log2 (µ) < 1500
Volumen potencial (V*) V* = (2 + µ2) log2 (2 + µ2) < 1500
Nivel (L) L = (V*) / V ≈1
Dificultad (D) D = 1 / L = V/ (V*) < 30
Esfuerzo (E) E= (µ1 N2 N log2 (µ) ) / (2 µ2) < 300
Tiempo T = E / S = E / 18 < 2100 seg
Errores (B) B = V / S* < 0,6
Contenido de Inteligencia I = L x V = (2µ2 / µ1 N2 x N log2 (µ) < 120
Nivel de lenguaje λ = L x V* = L x L x V
Donde S* es el número de discriminaciones mentales (decisiones) entre errores, de acuerdo con el modelo
de Halstead S* = 3000.
µ1: número de operadores únicos. N1: número total de ocurrencias de operadores.
µ2: número de operandos únicos. N2: número total de ocurrencias de operandos.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

2.2.2. Métricas de McCabe

Esta métrica aportó un nuevo y revolucionario concepto en el año que McCabe la


expuso. Complejidad ciclomática (v(G)) y su cálculo; el número ciclomático de un
grafo G con n vértices, e aristas y p partes conectadas es [9]:
v(G) = e – n + 2p
En un grafo fuertemente conectado, el número ciclomatico (v(G)) es igual al
máximo número de caminos linealmente independientes [9].
Un estudio realizado sobre los lenguajes de programación PASCAL y FORTRAN
[10] encontró que una complejidad ciclomática de entre 10 y 15 reducía al mínimo el
número de cambios en un módulo, McCabe limitó en 10 el margen superior pero
estudios posteriores han establecido que si la complejidad es menor a 15 los errores
no se incrementan, hay que tener en cuenta que en estudios realizados los programas
con complejidad igual o superior a 10 tienen al menos un error.

2.2.3. Métricas de Henry and Kafura

Estas métricas son también conocidas como métricas Fan-in Fan-out y están basadas
en las ideas propuestas por Yourdon y Constantine (1979) y Myers (1978):
x Fan-in: número de módulos que llaman un módulo dado.
x Fan-out: número de módulos que son llamados por un modulo dado.
En general los módulos con un alto número en la métrica de Fan-in están colocados
al nivel de librerías ya que son llamados por muchos módulos distintos, por el
contrario los módulos con un pequeño Fan-in y un gran número en la métrica de Fan-
out suelen ser módulos complejos, aunque esto no siempre es así, estos módulos
normalmente son candidatos a una reestructuración o rediseño. Se encontró mediante
un análisis que la métrica Fan-out tiene relación con el número de defectos en el
módulo [7]. Estos autores elaboraron un estudio con ocho proyectos de software y
constataron que estas métricas estaban relacionadas con la tasa de error de desarrollo.
La relación entre la complejidad del sistema y la tasa de errores fue de 0,83 con una
complejidad del 69%. Cada unidad introduce un incremento de la complejidad de 0,4
errores por cada 1000 líneas de código [7]. La fórmula que obtuvieron con este
estudio fue:
Tasa de error = -5,2 + 0,4 x Complejidad

2.2.4. Métricas de complejidad datos.

Métrica de Card y Agresti es una medida de diseño basada en la estructura modular de


la aplicación, en el acoplamiento y en la cohesión. Se concentra en examinar el diseño
y las decisiones de arquitectura. Usa la complejidad de los módulos para llegar a la
complejidad del sistema [14].
La métrica de complejidad de datos conocida también como métrica Q de Chapin
es similar a la métrica de Agresti. Chapin realmente no sólo identifica las entradas y
salidas a cada módulo, asigna también un factor dependiendo del objetivo de los datos
ya que esto influye en la complejidad del interfaz de módulo [13].


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

La métrica de complejidad de McClure analiza la complejidad. La complejidad se


puede formular como los caminos que puede tomar el programa debido a las
variables de control. La complejidad es la suma de las complejidades de módulo. La
complejidad es vista por McClure como un indicador de legibilidad [15].
La complejidad es calculada por la dificultad y el tamaño de la solución. La
filosofía de hacer módulos más pequeños es aquella que ve al programa como un
conjunto de módulos conceptualmente y operacionalmente independientes. Esta
filosofía mejora la legibilidad y simplificará la tarea de programar [12].

2.3. Métricas orientadas a objetos.

Métricas MOOD (Metrics for Object oriented Design) se refieren a mecanismos


estructurales básicos en el paradigma de la orientación a objetos como encapsulación,
herencia, polimorfismo y paso de mensajes. Estos indicadores fueron definidos para
medir el uso de los mecanismos de diseño en los lenguajes de programación
orientados a objetos a nivel de sistema[16] [17].
Las métricas definidas por Chidamber y Kemerer fueron creadas para medir la
complejidad, el acoplamiento, la cohesión, la herencia y la comunicación inter clases
de lenguajes de programación orientados a objetos. Estos indicadores ayudan a
asegurar la capacidad de mantenimiento de los productos de software, ya que
dependiendo de esas medidas se puede predecir si el modelo y su posterior
implementación serán fáciles de corregir, mejorar o adaptar a nuevos requisitos [18].
Las métricas Lorenz y Kidd fueron definidas para medir las características estáticas
del diseño del software, uso de herencia, el tamaño y el número de responsabilidades
de una clase. De esta manera, estas métricas contribuyen a asegurar el mantenimiento
de los productos de software [19] [28] [3].
Métricas de Li and Henry enfocan en medir el mantenimiento del software. Para
esto, se focalizan en mediciones de primitivas del diseño del software [20].

3. Principales Programas de métricas de ADA.

Las herramientas miden más o menos los mismos indicadores aunque para cada
lenguaje unas programas miden más indicadores que otros. Nos centraremos en el
lenguaje ADA y veremos algunas de estas herramientas y que indicadores miden. Se
han comparado: Gnatmetric, Mccabe IQ, Understand y Logiscope [33] [30] [31] [32].
Gnatmetric: es una herramienta que proporciona el compilador gratuito de ADA
GNAT [33]. GNAT fue desarrollado por la Universidad de Nueva York (NYU), y de
hecho GNAT significaba Traductor GNU de Ada de la NYU (GNU NYU Ada
Translator). Actualmente Ada core se ocupa de su mantenimiento y desarrollo.
Mccabe IQ [30] consta de las siguientes ediciones: McCabe IQ Developers
Edition: es un entorno interactivo, visual para la calidad de software. El análisis se
realiza con el código estático, proporcionando una solución comprensiva con los
desafíos que afrontan equipos de desarrollo y la garantía de calidad con un precio de
124$. Y McCabe IQ Test Team Edition: que proporciona pruebas comprensivas,
cobertura de código para enfocar y supervisar el proceso de pruebas de software.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

McCabe IQ Enterprise Edition: Proporciona todas las funcionalidades de la edición


de desarrolladores y del equipo de pruebas.
Understand [31] tiene las siguientes funcionalidades: medición de métricas,
dependencias, gráficos, pruebas de estándares, editor, búsquedas y reportes.
Logiscope [32] fue desarrollado y mantenido por Verilog durante más de 20
años. Verilog fue adquirida en 2000 por Telelogic, que fue absorbida por IBM. Desde
el año 2003, un grupo de expertos fundan Kalimetrix para proporcionar mantener la
herramienta. El precio de la herramienta es de 990€ por cada suite y por cada
lenguaje.
Del análisis de los indicadores que miden dichas herramientas podemos extraer que
el que más métricas relevantes obtiene es el programa logiscope que aunque es el más
caro es el que más información relevante da al usuario. El mejor calidad precio es el
gnatmetric pues aunque no mide métricas de Halstead en el resto da información muy
completa y es gratuito. Siendo el programa Understand el que menos métricas da
aunque este programa es muy útil para seguir si se cumple el diseño pues genera unos
grafos de llamadas muy útiles.

4. Factores de calidad

4.1. Reutilización

La reutilización es la capacidad de un componente de software de ser usado


repetidamente en otras partes para el cual al principio fue desarrollado [23].
La reutilización ha sido citada como esencial para obtener la mejora significativa
de la productividad de desarrollo de software. El esfuerzo de desarrollo a menudo es
una función exponencial de tamaño del software, una reducción en la cantidad del
software creado puede proporcionar los ahorros significativos en el coste de
desarrollo y de pruebas. El software reusado también tiene la ventaja de que es más
fiable que el software recién implementado [22]. La reutilización ha servido como el
medio para reducir el coste de desarrollo y mejorar la fiabilidad.
Algunos indicadores que sirven para medir la reutilización son [17]: MIF; AIF; CF.
Según G. Caldiera V. Basili se usan los siguientes indicadores: volumen,
complejidad ciclomatica, frecuencia de reuso.
Y según Prieto-Diaz and Freeman: tamaño de programa, estructura de programa,
documentación de programa, lenguaje de programación, experiencia de reutilización
(la experiencia de reúso en el lenguaje de programación y en el dominio de aplicación
afecta a la métrica anterior ya que cada programador ve un módulo desde su propia
perspectiva).

4.2. Fiabilidad

El estandar IEEE 610.12.1990 [2] define fiabilidad como: “La capacidad de un


sistema o componente para realizar sus funciones requeridas en condiciones
indicadas durante un período especificado de tiempo”.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Algunas de las malas prácticas que tienen los desarrolladores de software son: no
inicializar las variables. Asignar valores fuera de rango a las variables.
Algunas de las métricas que se usan para evaluar la fiabilidad son [25]: número de
subprogramas, métodos ponderados por clase, respuesta de una clase, tamaño del
interfaz de la clase, número de hijos, profundidad en árbol de herencia, proporción de
métodos heredados, variables en la parte pública del paquete.

4.3. Portabilidad

Una aplicación es portable si se puede trasladar desde un entorno a otro sin cambios.
Aunque si hay cambios hay que evaluar el alcance de los cambios y la percepción de
la gente para saber cómo ve la portabilidad de la aplicación. Aunque la portabilidad
no debe ser medida sólo como la cantidad de líneas de código cambiadas, se deben
tener más parámetros en cuenta. La complejidad de los cambios, la cantidad de estos
y el tiempo que se tarda en realizarlos son algunos valores esenciales que hay que
tener en cuenta para saber si una aplicación es portable o no [29]. Algunos de los
entornos de desarrollo que tienen impacto sobre la portabilidad son el compilador y el
sistema operativo.
Los indicadores de MOOD son los que se usan para medir la portabilidad.

4.4. Capacidad de ser probado

La fase de implementación degrada loa estructura de la aplicación y la capacidad de


prueba del sistema, incluso si tratamos de adherirnos para diseñar y directrices para
probar el código. Para prevenir esta degradación tenemos que supervisarlo
continuamente y mejorar la estructura de sistema cuando necesario.
Algunas de los indicadores que se usan para este modelo son: los indicadores de
complejidad; algunas de las métricas de MOOD (MIF, PF, CF); los indicadores de
Bansiya and Davis (DSC, NOH, ANA, DAM, DCC, CAM, MOA, MFA, NOP, CIS );
los indicadores de Chidamber y Kemerer (WMC, DIT, NOC, CBO, RFC, LCOM).

4.5. Capacidad de mantenimiento

“La facilidad con la cual un sistema de software o el componente pue-den ser


modificados para corregir defectos, mejora el funcionamiento u otros atributos, o se
adapta a un entorno cambiado.” Según la norma IEEE 610.12.1990 [2].
La principal cualidad que tiene que tener un código para que tenga un fácil
mantenimiento es que sea comprensible, si esta cualidad no está presente nadie sabrá
que pasa al modificar ese software. Para poder medir dicha cualidad tenemos los
siguientes criterios [24]: complejidad del código, complejidad del modulo, calidad de
la documentación, código auto explicativo.
Las cualidades que debe tener un código fácil de mantener son [26]:


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Modularidad: La independencia funcional de los componentes del software. Se


puede afirmar que un alto grado de modularidad de un componente implica una baja
de dependencia con otros componentes.
Una posible forma de evaluar la modularidad de un sistema es observar el grado en
que los paquetes dentro de un único módulo se relacionan entre sí, introduciendo la
noción de cohesión. Otra manera de evaluar la modularidad es explorar el grado en el
que los módulos están separados entre sí, introduciendo el concepto de acoplamiento.
Cohesión: Es una medida de cómo los componentes de un módulo de software
están interrelacionados. Un alto grado de cohesión es bueno para evitar tener más de
un algoritmo que se implementa en una sola unidad modular.
Acoplamiento: Un bajo grado de acoplamiento es bueno ya que contribuye a la
reutilización y a las modificaciones debidas a cambios de entorno (adaptabilidad) y
como resultado tendremos un menor coste de mantenimiento.

5. Conclusiones y futuros trabajos

Los indicadores y modelos solo pretenden ayudar a tener una buena calidad en la
implementación de código. Pero estos modelos no son infalibles, cumpliendo los
modelos nos acercamos a tener una buena calidad en la implementación del software.
Pero siempre hay excepciones en las que un paquete con una buena calidad se sale de
los indicadores o bien un programador rebelde puede saltarse los modelos
implementando código con valores dentro de los rangos de los indicadores pero
incomprensible.
Es difícil obtener modelos e indicadores para un solo lenguaje, estos vienen dados
para un grupo de lenguajes como los lenguajes orientados a objetos o los lenguajes
estructurados. Así los indicadores se pueden clasificar en esos dos tipos de
programación. En un principio se pensó en centrar el trabajo sobre un lenguaje
determinado pero tras una búsqueda y lectura de documentación para realizar el
documento se llego a la conclusión acertada de que los modelos e indicadores son
validos para la mayoría de lenguajes con unos ajustes bien realizados.
Hay que explotar mejores modelos que intenten tener en cuenta a los resquicios
que los actuales modelos de calidad tienen. Los modelos tendrían que tener en cuenta
la cantidad de comentario, los actuales solo tienen en cuenta el número de líneas
independientemente de si estas son blancas o están escritas hasta una cierta posición.
Se podría investigar sobre la complejidad que tienen las sentencias condicionales, o
las asignaciones de este tipo de datos. Para explotar este nuevo indicador se podría
tener en cuenta el numero ciclomatico si se separa en las distintas asignaciones, el
número de operadores “or” el número de operadores “and” el número de funciones a
las que se llama para calcular la sentencia etc.

6. Bibliografía:

[1] www.rae.es
[2] IEEE Standard Glossary of Software Engineering Terminology (std 610.12.1990)


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

[3] M. Choinzon,Y. UedaIbaraki. Detecting Defects in Object Oriented Designs Using Design
Metrics
[4] N. Fenton and S.L. Pfleeger. Software Metrics. A Rigorous and Practical Approach.
International Thomson Publishing, 1998.
[5] Grady R and Caswell D, Software Metrics. Establishing a Company-wide Program,
Prentice Hall, Englewood Cliffs, New Jersey, 1987.
[6] D. Conte, E. Dunsmore, Y. Shen, M. Zage, February 1987. A Software metrics survey.
[7] Stephen H. Kan, 2002 Addison Wesley. Metrics and Models in Software Quality
Engineering, Second Edition
[8] Luis Gerardo Navarro Guerra, Masters thesis, UANL 1997. Métricas de Halstead en
lenguajes manipuladores de bases de datos.
[9] Thomas J. McCABE. A complexity measure IEEE Transations on software engineering, vol
SE-2, Nº.4,1976.
[10] Lind, R. K. and K. Vairavan (1989, may). An experiemental investigation of software
metrics and their relationship to software development effort. IEEE Transactions on
Software Engineering 15 (5), 649 653.
[11] Lou Marco, "Measuring software complexity", Enterprise Systems Journal, 1997.
[12] Nachiappan Nagappan 2005. A Software Testing and Reliability Early Warning (STREW)
Metric Suite
[13] Armin Krusko. Complexity Analysis of Real Time Software Using Software Complexity
Metrics to Improve the Quality of Real Time Software.
[14] Carma L. McClure 1978. A Model for Program Complexity Analysis
[15] Thorbjörn Andersson 1990. A Survey on Software Quality Metrics
[16] D. Rodriguez R. Harrison 2001. An Overview of Object-Oriented Design Metrics
[17] B. Marín, N. Condori-Fernández, O. Pastor 2007. Calidad en modelos conceptuales: Un
análisis multidimensional de modelos cuantitativos basados en la ISO 9126
[18] Chidamber S. R., Kemerer C. F. 1994. A metric suite for object oriented design, IEEE
Transactions on Software Engineering, pp. 467–493.
[19] Lorenz, Mark & Kidd Jeff, Prentice Hall, 1994. Object-Oriented Software Metrics.
[20] W. Li & S. Henry,1993. Maintenance Metrics for the Object Oriented Paradigm first
International Software Metrics Symposium, pp. 52-60.
[21] ISO/IEC TR 9126: Software engineering –Product quality
[22] W. M. Thomas, A. Delis & V. R. Basili. An evaluation of ada source code reuse
Department of Computer Science University of Maryland College Park, MD 20742
[23] B. M. Bardin and C. J. Thompson. Composable Adams Software Component´s and the
Re-Export Paradigm Software Engineering Division Hughes Aircraft Company 1985
[24] Jeffrey S. Poulin. Measuring Software Reusability
[25] Sirsendu Mohanta, Gopika Vinod, A. K. Ghosh, Rajib Mall.An Approach for Early
Prediction of Software Reliability
[26] E. Safari-Sharifabadi C. Constantinides. Dynamic Analysis of Ada Programs for
Comprehension
[27] Boehm, B., Brown J., Kaspar H. Lipow M, Characteristics of Software Quality, TRW
Software Series TRW-SS-73-09, 1973.
[28] S. Herbold, J. Grabowski and S. Waack. Calculation and Optimization of Thresholds for
Sets of Software Metrics Technical Report No. IFI-TB-2010-01, ISSN 1611-1044
[29] Wendy J. Hudson.ADA Portablity- is it oversold?
[30] http://www.mccabe.com
[31] http://www.scitools.com
[32] http://www.kalimetrix.com
[33] http://gcc.gnu.org/onlinedocs/gnat_ugn_unw/The-GNAT-Metric-Tool-gnatmetric.html


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Modelos y estándares para la Interoperabilidad en los


intercambios de información entre sistemas de Seguridad
Social

Francisco Delgado Azuara1


1
Jefe de Área de Informática
Instituto Nacional de la Seguridad Social
Calle López de Hoyos, 169 20002 Madrid (España)
fdelgadoazuara@gmail.com

Resumen. En este artículo se va a exponer los avances realizados en la inter-


operabilidad en los intercambios de datos entre sistemas de información de Se-
guridad Social. Por una parte, la propuesta de un modelo de referencia específi-
co para este ámbito pretende ser una herramienta en la que se apoyen las insti-
tuciones para definir su marco de interoperabilidad. Por otra parte, en el ámbito
semántico, se propone un estándar de esquema de metadatos basado en Dublin
Core y en los vocabularios contralados actualmente disponibles en la Unión
Europea.

Palabras clave: Interoperabilidad, Seguridad Social, intercambios electrónicos,


vocabularios, metadatos.

1 Introducción

Los intercambios de datos entre instituciones de Seguridad Social presentan una serie
de problemas de interoperabilidad todavía sin resolver. En la ponencia presentada en
Atica20121 se examinaron estos problemas a través de un caso de estudio centrado en
el proyecto EESSI2 de la Unión europea, el más desarrollado en este ámbito hasta el
momento.
Según se vio en la citada ponencia, a nivel organizacional una solución probada es
el la utilización de un Directorio Maestro de instituciones para facilitar las intercone-
xiones necesarias en los intercambios. Sería interesante considerar si el modelo esta-
blecido en la Unión europea es exportable a los intercambios que se realizan entre
países no miembros de la Unión Europea. Es decir, la posibilidad de establecer un
directorio de instituciones de Seguridad Social a nivel mundial.
A nivel técnico, una red segura garantiza la comunicación y transporte. Por otra
parte, el uso de estándares es un excelente punto de partida para facilitar la interco-
municación. Las elecciones de tecnologías basadas en servicios web y estándares


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

abiertos pueden ser considerados como importantes facilitadores en la capa de inter-


cambios.
A nivel semántico se encontraron mayores debilidades y es necesario buscar solu-
ciones más ambiciosas. No es de extrañar esta situación, dado que lograr la interope-
rabilidad semántica es a menudo considerado uno de los mayores retos en la integra-
ción de sistemas de información.
En este artículo vamos a exponer los avances realizados en el último año en el
campo de la interoperabilidad entre sistemas de Seguridad Social.
Por una parte, la problemática justifica un modelo conceptual específico para este
entorno. En la sección 2 se van a exponer las características principales del modelo
propuesto.
Por otra parte, la solución a los problemas semánticos debe basarse en la utiliza-
ción de vocabularios controlados y esquemas de metadatos. En la línea de lo dicho en
el párrafo anterior, la definición de un estándar de metadatos para la información
intercambiada es el punto de partida más sólido según se deduce la de la literatura
sobre esta problemática. La sección 3 se dedica a la propuesta de estándar de metada-
tos sobre la que se está trabajando.
En la sección 4 se expone los próximos pasos previstos en esta línea de investiga-
ción.

2. Modelo de interoperabilidad para la Seguridad Social

El programa europeo ISA3 ya destacaba la importancia de la interoperabilidad en el


marco de las Administraciones Públicas. En particular, las instituciones de Seguridad
Social se enfrentan a las complicaciones de la interoperabilidad cuando intercambian
e integran datos dentro de los programas sociales. Siguiendo sus recomendaciones,
las instituciones deberían establecer su marco de interoperabilidad y definir un mode-
lo para guiar la aplicación de la interoperabilidad e implementar sistemas integrados
de Seguridad Social.
En un ámbito general, se han realizado diversos intentos de clasificar y definir mo-
delos aplicables en el campo de la interoperabilidad, con la intención de categorizar e
incluso medir el impacto en diferentes entornos dónde puede establecerse la interope-
rabilidad. El objetivo en presentar beneficios prácticos mediante el establecimiento de
servicios, de tal manera que se definan claramente las funciones de los servicios y sus
interfaces y se haga posible su reutilización.
La propuesta de desarrollar un modelo conceptual para la interoperabilidad entre
instituciones de Seguridad Social fue inicialmente presentada en el contexto del pro-
yecto desarrollado por la Asociación Internacional de Seguridad Social (AISS) con el
propósito de ayudar a las instituciones de Seguridad Social de todo el mundo a mejo-
rar su eficacia y eficiencia en la implementación de sistemas interoperables. El mode-
lo se discutió en la Conferencia sobre Tecnologías de la Información y las Comunica-
ciones en la Seguridad Social45 y tubo un feedback positivo por parte de los cerca de
300 representantes de las instituciones de Seguridad Social de todo el mundo. Poste-
riormente se presentó en 15ª Conferencia ICEIS celebrada en Angers, Francia, del 4
al 7 de julio de 20136.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

El objetivo principal es desarrollar especificaciones estandarizadas que promuevan


la reutilización y faciliten la solución de los problemas de coste y complejidad en la
implementación de sistema de seguridad social. Se trata de un modelo genérico en el
sentido de que es aplicable para proporcionar servicios al público a cualquier nivel,
tanto local como internacional. El modelo también puede ser utilizado pata clarificar
y racionalizar las relaciones entre entidades que trabajan juntas, en varios ámbitos del
gobierno o bien en diferentes sectores, para proprcionar mejor servicios públicos.
Mientras que los beneficios de construir sistemas de seguridad social más integra-
dos e interoperables son ampliamente reconocidos, el coste y la complejidad de esos
sistemas representan un claro reto para las instituciones. La propuesta de este modelo
intenta ser una herramienta estandarizada que facilite la implementación de sistemas
interoperables de Seguridad Social.
Su enfoque se basa en la naturaleza de servicio público de los sistemas de Seguri-
dad Social e incluye componentes predefinidos encaminados a reducir la complejidad
de desarrollar un modelo institucional así como a proporcionar una herramienta co-
mún para las instituciones de Seguridad Social de todo el mundo.
Es importante subrayar que este modelo intenta promover el desarrollo de especifi-
caciones y prácticas estandarizadas, pero deja la parte de la implementación a las
instituciones.
El modelo de interoperabilidad incluye los siguientes elementos:
Registros básicos o recursos de datos compartidos. Se trata de información cla-
ve incluida en los sistemas de información Seguridad Social. Debería ser com-
partida internamente y con otras instituciones para promover la reutilización
de datos.
Servicios de interoperabilidad utilizados para conectar aplicaciones interopera-
bles y sistemas de información siguiendo las especificaciones SOA. Deberías
consistir en protocolos (por ejemplo SOAP), herramientas (como XSTL) e in-
tegración de plataformas (como ESB).
Servicios externos proporcionados por terceras partes que participen en las so-
luciones de interoperabilidad. Por ejemplo, podrían incluir registros básicos
externos, servicios financieros para pagar prestaciones o recaudar cotizacio-
nes.
Mecanismos seguros de intercambio de datos que proporcionen un entrono se-
guro común para las operaciones de interoperabilidad. Por ejemplo, esta capa
podría incluir mecanismo de autentificación de operaciones y datos.
 Servicios agregados construidos usando otros servicios básicos. Ese tipo de
nuevos servicios podrían combinar varios registros básicos y servicios exter-
nos conectados a través de servicios de interoperabilidad utilizando mecanis-
mos de seguridad apropiados.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

3. Propuesta de un estándar para interoperabilidad semántica

Independientemente del modelo que se utilice, lograr la interoperabilidad semántica


es a menudo considerado uno de los mayores retos en la integración de sistemas de
información.
Uno de los principales métodos para solucionar los problemas semánticos es el uso
de vocabularios controlados7. Un vocabulario controlado es una organización de
palabras y frases utilizados como índice de contenido o para recuperar contenido a
través de un visualizador de búsqueda.
Generalmente incluye los términos preferidos y sus variantes de un dominio de-
terminado8. En orden de menor a mayor complejidad, suelen incluirse entre los voca-
bularios controlados los glosarios, diccionarios, taxonomías y ontologías.
El propósito general de los glosarios y listas de códigos es proporcionar un signifi-
cado común a los términos y códigos en el correspondiente dominio de aplicación.
Evidentemente, no hay una estructura predeterminada para las listas de códigos pero
la capacidad de representar sinónimos claramente apoya la detección y resolución de
conflictos relacionados con estas interpretaciones. Otro propósito de los glosarios es
proporcionar apoyo para detectar conflictos de homónimos cuando se da el caso. Para
detectar estos problemas, se puede consultar un glosario con el contexto como pará-
metro de tal forma que se puedan encontrar distintos calificadores.
En un contexto máquina-máquina los sistemas de información pueden presentar
diversos tipos de incompatibilidades (estructurales, de representación, lingüísticas,
conceptuales, etc.). Como se decía anteriormente, para asegurar la correcta interpreta-
ción de los datos intercambiados entre los sistemas es necesario el uso de vocabula-
rios controlados. Pero, para lograr el entendimiento de la información intercambiada
de una forma más dinámica, el sólo uso de vocabularios controlados no es suficiente,
siendo necesarios modelos de conocimiento más ricos semánticamente, como taxo-


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

nomías y ontologías, que definen los conceptos de un determinado dominio así como
sus relaciones. Sin embargo, la definición de ontologías implica a menudo una com-
plejidad excesiva que dificulta su utilización.
Una vía más realista para lograr la interoperabilidad semántica es contar con un
modelo conceptual común (esquema de metadatos), en el que se describe la informa-
ción que se intercambia, en términos de conceptos, sus propiedades y las relaciones
entre estos conceptos. Estos metadatos son los bloques de información básica para el
desarrollo de aplicaciones y sistemas de intercambio de información entre sistema
heterogéneos. Pueden ser definidos una sola vez pero compartidos y reutilizados en
múltiples ocasiones, tanto en el ámbito de la Unión europea como en un proyecto más
ambicioso a nivel mundial. Un esquema de metadatos enfatiza que los elementos de
metadatos tienen un sustrato mayor en los sistemas de información, aspecto que es
significativo cuando la interoperabilidad de metadatos puede ser conseguida también
a nivel técnico9. En esa línea, la Estrategia Europea de Interoperabilidad (The Euro-
pean Interoperability Strategy10) busca alcanzar un acuerdo sobre la definición de
metadatos como forma de resolver los problemas de interoperabilidad semántica.
El concepto electrónico de metadato deriva de las primeras teorías sobre gestión de
bases de datos que necesitaban ser capaces de referenciar los aspectos de los modelos
de datos utilizados con propósitos administrativos. Hoy en día los metadatos son una
de las formas más efectivas para describir “cosas” (recursos o artefactos) y las rela-
ciones de unas con otras. De manera ideal, los metadatos deberían ser escritos e inter-
pretados de tal forma que los ordenadores y las aplicaciones pudieran compartirlos. El
mundo de la programación no es ideal y por eso es necesario combinar los estándares
con los métodos de programación y el cruce de información.
Por otra parte, la estandarización en una forma potente de establecer un acuerdo
por medio de un consenso constructivo e intuitivo, técnicamente efectivo y económi-
camente bien reconocido de conseguir la interoperabilidad. Requiere instituciones
acreditadas para construir el consenso, establecer el estándar y asegurar su aplicación
uniforme. La elección de un esquema de metadatos determinado está ampliamente
influenciada por la prácticas en las instituciones similares y la compatibilidad con el
sistema de gestión de contenido11. En el caso de los sistemas de información de Segu-
ridad Social los metadatos deberían describir los datos involucrados en los intercam-
bios de información entre instituciones de Seguridad Social. El primer factor es selec-
cionar un estándar de metadatos por su adecuación para describir los tipos más comu-
nes de recursos manejados en los intercambios entre los sistemas de información
participantes.
El segundo y tercer criterios más comunes serían los “usuarios/audiencia objetivo”
y los “contenidos de los recursos”.
Hoy en día, la Seguridad Social está extendida por todo el mundo. Sin embargo,
las infraestructuras tecnológicas y los recursos en las diferentes instituciones y limita-
ciones también determinan opciones. Por eso el estándar elegido debería basarse en
una especificación mundial.
Se ha encontrado que la mayor parte de los estudios sobre desarrollo de metadatos
para sistemas de información han propuesto como estándar Dublin Core metadata12,
ampliamente extendido en los sistemas de referencia13. Es más, de acuerdo con las


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

experiencias analizadas, los 15 elementos de Dublin Core podrían ser un excelente


punto de partida para la definición de un estándar de Seguridad Social.
Dublin Core también significa desarrollar una filosofía de extensión y métodos pa-
ra extender el vocabulario sin romper los usos del conjunto original de elementos. Por
otra parte, desde 2003, Dublin Core es también un estándar ISO14.
Como precedente en el ámbito del Gobierno electrónico, podría citarse el caso de
AGLS15. Se trata de el un estándar australiano de metadatos (AS5044-2010) alineado
con la iniciativa de metadatos de Dublin Core y que se utiliza para describir recursos
de Gobierno. Solo tres elementos de este estándar son obligatorios (Creator, Date and
Title). Los restantes pueden ser condicionales (presentes en ciertas circunstancias),
recomendables u opcionales. Los conjuntos de metadatos, incluidas las extensiones,
tienen un total de en 60 elementos.
Otro estándar bien conocido es IEEE/LOM, Learning Object Metadata16. Se trata
de esquema de datos conceptual para la definición de objetos de aprendizaje. LOM
fue desarrollado y formalizado a través de IEEE y el Learning Technology Standards
Committee. A su vez, el ISO/IEC 19788 Metadata Learning Resource17 es una pro-
puesta en desarrollo. Su primera parte es un estándar reconocido18 y la segunda está
todavía en fase de borrador19. El conjunto de elementos de MLR también encaja con
el de Dublin Core.
En base a estos antecedentes, se ha propuesto20 un estándar que recibe el nombre
de EESSIM (Exchanges if Social Security Information Metadata). Se basa en los
elementos de Dublin Core y en la información sobre vocabularios controlados ac-
tualmente disponible para la Unión Europea. El esquema puede verse en la Tabla 1.

El primerio de los vocabularios referenciados es el Glosario de Términos (GOT).


El GOT se definió en el contexto del proyecto TESS, precedente del actual proyecto


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

EESSI. Su propósito era permitir una comunicación más eficiente entre las institucio-
nes de Seguridad Social de la Unión Europea.
El GOT definía cada uno de los datos presentes en los intercambios de una forma
genérica, en primer lugar, seguida de una definición particular para cada uno de los
Estamos miembros, completando esta información con una vista que permitía a la
institución procesar la información recibida.
El Directorio Maestro o Master Directory (MD) es una base de datos de institucio-
nes. Se trata de una herramienta desarrollada en ámbito del proyecto EESSI que per-
mite que cualquier institución pueda conectar con otra gracias a las facilidades de los
Servicios de Directorio y los mecanismos establecidos tanto a nivel internacional
como local de encaminamiento21. El MD solo contiene información sobre las institu-
ciones de Seguridad Social del Espacio Económico Europeo, pero la idea podría
extenderse al resto del mundo.
Euro-lex22 no es realmente un vocabulario, pero proporciona acceso libre a la legis-
lación de la Unión europea y a otros documentos considerados como públicos. El
sitio web está disponible en las 23 lenguas oficiales de la Unión Europea.
Por último, los “Core Vocabularies” son una iniciativa de la Unión Europea dentro
del programa JOINUP23. Se trata de un modelo de datos simplificado, reusable y
extensible que captura las características fundamentales de una entidad de una forma
independiente del contexto. La acción 1.1 de ISA ha desarrollado vocabularios de
este tipo para Bussiness, Location y Public Service.
Un ejemplo de la utilización de este estándar puede verse en la tabla 2, en la que se
describe el campo “Institution Name” en el caso del Instituto Nacional de la Seguri-
dad Social de España.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

4. Conclusiones y trabajo futuro

El intercambio de datos entre los sistemas de información de Seguridad Social pre-


senta problemas de interoperabilidad pendientes de estudio y resolución. La propuesta
de un modelo específico para este ámbito pretende ser una herramienta de estandari-
zación que facilite la implementación de los intercambios. Para aprovechar sus posi-
bles ventajas, las instituciones deberán definir su marco de interoperabilidad de
acuerdo con los parámetros propuestos. El paso siguiente sería el desarrollo de paque-
tes de software siguiendo estas especificaciones, si bien aquí deberían entrar en juego
también las industrias de tecnologías.
En cuanto a los problemas detectados en la dimensión interoperabilidad semántica,
se ha propuesto una definición de estándar de metadatos que debería consolidarse
mediante intercambios prácticos que permitiesen decidir sobre aspectos como:
Que elementos deberían ser obligatorios.
Que elementos deberían ser opcionales.
Que elementos deberían ser condicionales.
Que elementos deberían contener sub-elementos.
Que elementos deberían añadirse.
En que vocabularios controlados debería basarse el estándar.
Por otra parte, el estándar debería basarse en una serie de vocabularios controlados
que a su vez deberían ser objeto de definición y, en su caso, extensión a un ámbito lo
más amplio posible.

Referencias

1 Francisco Delgado. Interoperabilidad en los intercambios de información entre sis-


temas de Seguridad Social: avances y experiencias. Actas del IV Congreso Interna-
cional sobre Aplicación de Tecnologías de la Información y Comunicaciones Avan-
zadas. Universidad Técnica Particular de Loja (Ecuador) 24 – 26 de Octubre de 2012.
2 http://ec.europa.eu/social/main.jsp?catId=869
3 Interoperability Solutions for European Public Administrations - ISA. European
Interoperability Framework (EIF).
http://ec.europa.eu/isa/documents/isa_annex_ii_eif_en.pdf
4 13th International Conference on Information and Communication Technology in
Social Security. http://www.issa.int/News-Events/Events/13th-International-
Conference-on-Information-and-Communication-Technology-in-Social-Security
6 Delgado, F., Otón, S., Ruggia, R., Hilera, J.R., Gutiérrez, J.M.: Proposal of an In-
teroperability Model for Social Security Information Systems. PROCEEDINGS OF
THE 15TH INTERNATIONAL CONFERENCE ON ENTERPRISE
INFORMATION SYSTEMS Vol. 2 (ICEIS 2013, Angers, Francia, 4-7 Julio 2013).


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

ISBN: 978-989-8565-60-0. Hammoudi, S., Maciaszek, L., Cordeiro, J., Dietz, J.


(eds.).
7 Fraunhofer: Study of multilingualism. European Commission –IDABC. 2009.
8 Gill, Tony, Anne J. Gilliland, Maureen Whalen, and Mary S. Woodley. Introduction
to Metadata: Pathways to Digital Information. Online Version 3.0. Edited by Murtha
Baca. Los Angeles: J. Paul Getty Trust, Getty Research Institute.
Http://www.getty.edu/research/publications/electronic_publicatons/intrometadata/sett
ing.html.
9 Haslhofer, Bernhard and Wolfgang Klas. A survey of techniques for archieving
metadata interoperability. ACM Computing Surveys, 42 (2): article 7.
http://eprints.cs.univie.ac.at/79/1/haslhofer08_acmSur_final.pdf
10 European Interoperability Strategy,
http://ec.europa.eu/idabc/servlets/Doc64c0.pdf?id=32207.
11 Park, Jung-ran; Tosaka, Yuji. Metadata Creation Practices in Digital Repositories
and Collections: Schemata, Selection Criteria, and Interoperability. Information
Technology and Libraries, September 2010.
12 Dublin Core, 2009: http://dublincore.org/metadata-basics/
13 Noh, Youghee. A study on metadata elements for web-based reference resources
system developed through usability testing. Library Hi Tech Vol. 29 No 2, 2011.
14 “ISO/IEC 15836 :2003. Dublin Core Metadata Element Set,” International Stand-
ards Organization, 2003
15 http://www.naa.gov.au/records-management/agency/create-capture-
describe/describe/index.aspx
16 LOM, http://ltsc.ieee.org/wg12/.
17 http://www.ariadne.ac.uk/issue55/currier
18 “ISO/IEC 19788. Information technology for learning, education and training.
Metadata Learning
Resource,” International Standards Organization, (Working Draft), 2011.
19 Pons, Daniel; Hilera, José Ramón; Pagés, Carmen. ISO/IEC 19788 MLR: A new
metadata standarad for learning resources (in Spanish). IEEE-Rita Vol 6m; Num 3,
Agos 2011.
http://rita.det.uvigo.es/201108/uploads/IEEE-RITA.2011.V6.N3.A8.pdf
20 22nd International Conference on Information Systems Development (ISD2013),
Sevilla, Spain, September 2-4, 2013, http://iwt2.org/isd2013/index.php
21 Delgado, Francisco; Hilera, José Ramón; Ruggia, Raúl. Soluciones para el inter-
cambio electrónico de información de Seguridad Social. El profesional de la Informa-
ción. 2012, Julio-agosto.
22 http://eur-lex.europa.eu/en/index.htm.
23 https://joinup.ec.europa.eu/


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Las metodologı́as de desarrollo de Software.


Propuesta de una guı́a para la aplicación de la
metodologı́a Agile

Eduardo Gómez, José Amelio Medina, Roberto Barchino

Escuela Politécnica Superior Dept.de Ciencias de la Computación


Universidad de Alcalá, Campus Universitario 28871 Alcalá de Henares
{eduardo.gomezf,josea.medina,roberto.barchino}@uah.es

Resumen A lo largo de este paper se presenta un estudio teórico sobre


las metodologı́as de desarrollo de software existentes y más relevantes
que se utilizan en la actualidad, describiendo sus principales caracterı́sti-
cas, y haciendo un especial hincapié en sus puntos fuertes y carencias.
Por otro lado, el estudio se centra concretamente en la metodologı́a de
desarrollo de software Agile para realizar un apartado práctico, por ser
una de las más utilizadas en los últimos años.
Por ello se propone una guı́a que facilite la correcta evaluación sobre el
estado de la implantación de dicha metodologı́a de desarrollo Agile.
Palabras clave: Metodologı́as, Software, Agile, Herramienta, Evalua-
ción

1. Introducción
Desde la segunda mitad del siglo XX se ha intentado afrontar la realización de
un método que se pudiese utilizar para gestionar el trabajo del desarrollo de soft-
ware. Los primeros intentos de afrontar el problema consistı́an en la aplicación
de los métodos clásicos que se venı́an utilizando en el ámbito de la ingenierı́a.
Poco a poco, varios autores [1] [3] se fueron dando cuenta que utilizar estos
métodos clásicos en software quizás no fuese la mejor idea, pues partı́an de
un entorno con unos procesos radicalmente distintos al desarrollo propiamente
dicho. Fue entonces cuando poco a poco se fue acuñando una definición formal
de la metodologı́a de desarrollo de software:

“La metodologı́a de desarrollo de software es un marco de trabajo, o


framework en inglés, utilizado con el fin de estructurar, planificar y con-
trolar el proceso de desarrollo de software.”[2]

Posteriormente, y de manera gradual, se fue experimentando con métodos


más dinámicos y ligados de manera especı́fica con el desarrollo de software pro-
piamente dicho, entre los que podemos destacar metodologı́as que utilizan pro-
totipos, el diseño incremental, en espiral o Agile. A lo largo de este estudio se
analizarán estos métodos, haciendo un especial énfasis en reconocer sus puntos
fuertes y carencias.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

En los últimos años sin embargo, cada vez está utilizándose de una manera
más intensiva la metodologı́a de desarrollo de software Agile, siendo en la ac-
tualidad una de las metodologı́as más utilizadas según el último estudio sobre el
estado de Agile realizado por VersionOne [4].

2. Estudio de las metodologı́as de software


Como base para el desarrollo de una herramienta de evaluación del estado de
la implantación de la metodologı́a de desarrollo de software Agile, se ha realizado
en primer lugar un estudio de las metodologı́as más importantes.
Concretamente, en el presente estudio se han seleccionado las siguientes me-
todologı́as:
Modelo en Cascada: El progreso o avance de un proyecto se entiende como
el paso de una fase a la siguiente. [3].
Prototipado: Es una técnica que se suele empeñar en el desarrollo de soft-
ware, comparable a otras utilizadas en otros campos de la ingenierı́a. [5].
Incremental: Las fases del sistema se hacen de manera incremental, esto
es, se itera sobre cada fase hasta que el producto se finaliza. [6].
Espiral: Combina elementos del prototipado, ası́ como del modelo en cas-
cada, pero está orientado para proyectos y sistemas complejos de tamaño
grande. [7].
Métrica: Metodologı́a de desarrollo de software de uso oficial en la Admi-
nistración Española. [8].
Agile: Se basa en el modelo incremental, promueve planificación de pro-
yectos adaptativa y un desarrollo que evolucione a lo largo de la vida del
proyecto. [9].

3. Aplicación de la metodologı́a Agile


Como parte de la investigación realizada se ha desarrollado una guı́a de
aplicación de la metodologı́a Agile, que permita evaluar la implantación que se
esté llevando a cabo en un entorno empresarial.
Esta guı́a de implantación tiene como objetivo principal ser genérica, es decir,
aplicable a todos los entornos profesionales con independecia del tamaño de la
organización.
Concretamente la guı́a es un conjunto de encuestas que facilitan información
sobre el estado de implantación de Agile en una organización, y que se describen
a continuación.

3.1. Encuestas
El estudio llevado a cabo presenta un conjunto de encuestas, que se pro-
ponen como herramienta para evaluación y posterior análisis del estado de la
implantación de la metodologı́a Agile en su entorno profesional.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Según Alistair Cockburn en el libro Agile Software Development [10], seis


meses es un plazo adecuado para empezar a ver resultados de la implantación
de Agile, ası́ como para observar los problemas que van apareciendo, a partir
de los cuales se podran realizar las medidas correctoras para poder corregir las
desviaciones surgidas.
Las encuestas se van a focalizar y organizar en seis grupos o áreas, que
reflejarán el estado relativo a la metodologı́a Agile en el Proyecto:

Desarrollo, software y generación: En estas encuestas se evalúa el grado


de utilización de las herramientas necesarias para poder gestionar correc-
tamente el proyecto. Es decir, se evalúa la utilización de herramientas de
control de código fuente, la realización de pruebas o herramientas de inte-
gración entre otras.
Equipo de trabajo: Esta encuesta es la encargada de evaluar el proyecto
en cuanto al personal que lo compone. Concretamente, se evalúa sobre el
número de personal implicado, sus funciones y su jerarquı́a.
Planificación del trabajo: El proyecto debe ser planificado correctamente,
y esta encuesta es la encargada de recoger la información necesaria para
examinar si se está realizando.
Iteraciones: Como se ha descrito anteriormente, la metodologı́a Agile utiliza
el concepto de iteraciones para desarrollarse. En esta encuesta se evalúa la
correcta utilización de las iteraciones, los tiempos, y el trabajo que resulta
en cada iteración.
Dı́a a dı́a: La metodologı́a Agile es especialmente descriptiva en cuanto al
trabajo a realizar cada dı́a (reuniones diarias, consulta individual en cuanto
al trabajo propio por medio del mecanismo ”qué hice ayer”, ”qué haré hoy”,
”qué obstáculos tengo y qué ayuda necesito”). Bajo esta encuesta se evalúa el
buen desarrollo del dı́a a dı́a, y la utilización de las herramientas disponibles.
Calidad del proceso Agile: En esta última encuesta no se valora tanto
si se utiliza Agile o no en un aspecto determinado, sino que se trata de
examinar la calidad de la metodologı́a utilizada.

Finalmente, se va a especificar un baremo que analice la información que


recoge la guı́a de implantación, con el fin de cuantificar las carencias y fallos que
tenga el proyecto. Este baremo distinguirá los siguientes tipos en cuanto a su
gravedad: crı́tico, importante, menor o trivial.

4. Conclusiones y futuras lineas de investigación

Mediante la realización del presente estudio de investigación se ha analizado


la situación actual en el campo de las metodologı́as de desarrollo de software,
pues es bien cierto que existe un catálogo muy amplio de variantes, revisiones e
implantaciones posibles. A lo largo del análisis realizado se han intentado agrupar
y sintetizar las distintas maneras existentes de implantar una metodologı́a de
desarrollo de software.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Seguidamente, y centrándonos en la metodologı́a de desarrollo Agile, se ha


presentado una guı́a de evaluación de la implantación de dicha metodologı́a,
mediante la utilización de una serie de encuestas que consiguen justificar la
correcta o incorrecta utilización de Agile.
Se considera importante comentar en este capı́tulo de conclusiones la impor-
tancia de haber realizado una guı́a de aplicación de Agile que aporta la informa-
ción y permite el análisis necesario para auto-evaluar y validar la implantación de
dicha metodologı́a en una organización, además proporciona datos cuantitativos
sobre los fallos o carencias que se detectan.
Un problema que se detectó desde el comienzo es la difı́cil evaluación de la
implantación de una metodologı́a de desarrollo, fuese cual fuese, debido prin-
cipalmente a que los entornos y contextos profesionales son muy variados. Es
por eso que uno de los objetivos a la hora de diseñar la guı́a de implantación
era conseguir que fuesen lo más estándares y adaptables, pero que siempre se
justificasen, que no quedase ninguna pregunta fuera de lugar.
Finalmente, a lo largo del propio desarrollo del estudio realizado han ido
apareciendo ideas, muchas veces como el resultado de la guı́a de aplicación de
Agile, y otras muchas reflexionando sobre las aplicaciones que pudiera tener en
un futuro cercano la realización y continuación de las bases planteadas en el
análisis realizado. Con esto, ha surgido una lı́nea de trabajo futuro, el desarrollo
de un Portal Web que permita que cualquier persona sea capaz de evaluar, por
medio de las encuestas planteadas, un entorno profesional determinado.

5. Bibliografı́a
Referencias
1. David Parnas. A rational design process and how to fake it . Disponible en http:
//users.ece.utexas.edu/~perry/education/SE-Intro/fakeit.pdf
2. Roger Pressman: Software Engineering: A Practitioner’s Approach. McGraw Hill
(2010)
3. Winston Royce: Managing the Development of Large Software Systems. Disponi-
ble en el siguiente enlace http://leadinganswers.typepad.com/leading_answers/
files/original_waterfall_paper_winston_royce.pdf (1970).
4. VersionOne: Annual State of Agile Development Survey. Disponible en http://www.
versionone.com/pdf/7th-Annual-State-of-Agile-Development-Survey.pdf
5. Smith M.F.: Software Prototyping: Adoption, Practice and Management. McGraw
Hill (1991)
6. Sergei Kostigoff: Descripción y esquemas de varias metodologı́as. Disponi-
ble en http://myprojects.kostigoff.net/methodology/development_models/
development_models.htm
7. Barry W. Boehm: A Spiral Model of Software Development and Enhancement. TRW
Defense System Group
8. Manual y referencia de Métrica de consulta. Disponible en http:
//administracionelectronica.gob.es
9. Manifiesto Agile. Disponible en http://agilemanifesto.org/
10. Alistair Cockburn: Agile Software Development. ISBN 0321482751


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Implantación de un Sistema de Gestión de Calidad por


Procesos EFQM en el Decanato de la Facultad Regional
Tucumán de la Universidad Tecnológica Nacional,
República Argentina

Emmanuel F. López 1, José A. Medina 2, Walter F. Soria1 Gustavo G. Maigua1


Roberto Barchino 2
1
Facultad Regional de Tucumán, Universidad Tecnológica Nacional
4000 San Miguel de Tucumán (Tucumán), República Argentina
{emmanuellopez, fabiansoria, gustavomaigua}@frt.utn.edu.ar
2
Escuela Politécnica Superior, Universidad de Alcalá de Henares
28871 Alcalá de Henares (Madrid) España
{josea.medina, roberto.barchino}@uah.es

Resumen. En este trabajo se presentan las fases que se han llevado acabo para
la Implantación de un Sistema de Gestión de la Calidad por Procesos con
EFQM en el Decanato de la UTN-FRT. El mismo permitirá optimizar la gestión
de ésta Facultad, ensamblando sobre su estructura un instrumento que la siste-
matice, y estandarice sus procesos, incorporando las mejoras necesarias con el
menor impacto sobre el resto del sistema.

Palabras clave: EFQM, Implantación, Sistema de Gestión de la Calidad, Pro-


cesos, Decanato, UTN-FRT, Calidad.

1 Introducción

La universidad actual se enfrenta al desafío de insertarse en un mundo complejo,


con nuevas exigencias de profesionalismo y competencias emergentes asociadas a la
sociedad del conocimiento. A ello se suman las nuevas tareas pedagógicas y los reque-
rimientos de rendir cuentas y ser eficientes en la gestión institucional. Se trata de una
correcta gestión de la calidad de la educación superior [1].
Ante esta situación surgen las preguntas: ¿Quiénes deben hacerse cargo de cons-
truir esta nueva universidad? ¿Esta labor debe considerar la evaluación de la calidad
de la Institución?
Frente a este panorama emerge el concepto de autogobierno universitario, que es
una herramienta para profundizar en la autogestión y superar los niveles de calidad
previos, ya que sostiene el principio de que la autonomía conlleva de manera implícita
la consecución del desarrollo organizacional (innovación, eficacia, eficiencia).


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

En este sentido el desafío al que se enfrenta la UTN-FRT, es buscar a través del


Autogobierno y desde dentro de la misma Institución las respuestas más adecuadas
para lograr alcanzar las premisas enunciadas inicialmente.
Este trabajo surge como continuación del diagnóstico realizado con el Modelo
EFQM de Excelencia, en el Decanato de la Facultad Regional Tucumán de la Univer-
sidad Tecnológica Nacional (UTN-FRT), República Argentina en el año 2012, y se
plantea dar cumplimiento a una de las acciones de mejora allí propuestas. La cual es
prioritaria por su efecto catalizador sobre gran parte de las demás [2].

2 Estado del arte

Los sistemas de gestión de la calidad permiten a las organizaciones realizar una me-
jora continua en sus procesos y sus productos [10] [11]. Para Vieytes Suquilvide, es la
forma como la organización realiza la gestión empresarial asociada con la calidad. En
términos generales, consta de la estructura organizacional junto con la documentación,
procesos y recursos que se emplea para alcanzar los objetivos de calidad [3]. Un sis-
tema de gestión de la calidad puede ayudar a las organizaciones a aumentar la satis-
facción del cliente y de otras partes interesadas [8].
Estos sistemas se basan en la gestión por procesos, que es una estrategia administra-
tiva para gestionar toda la organización basándose en los procesos [9] [12]. Enten-
diendo éstos cómo, una secuencia de actividades orientadas a generar un valor añadi-
do sobre una entrada para conseguir un resultado [4]. Además, aunque los distintos
procesos están relacionados entre sí, se puede modificar uno de ellos o alguna parte
sin impactar en el resto de manera negativa. Esta forma de trabajar es más sencilla y
económica.
Esta implementación de sistemas en las organizaciones ha facilitado el desarrollo de
lo que conocemos como “Premios a la Calidad” como un reconocimiento a la exce-
lencia y elemento de difusión de las mejores prácticas [5]. En sentido sinérgico con lo
dicho de los sistemas de gestión de la calidad, los premios a la calidad generan para
las organizaciones galardonadas un impacto positivo en su entorno, volviéndose en
beneficios de ellas. Los modelos base de estos premios a nivel mundial son el de De-
ming (Japón) [13], el de Malcolm Baldrige (USA) [14] y el Modelo EFQM (Europa)
[15].
Por su parte los países de América Latina adaptaron éstos modelos, y generaron sus
correspondientes premios nacionales a la calidad. Podemos destacar a Colombia, ya
que fue el primer país en instaurar un Premio a la Calidad (1975); por otro lado Ar-
gentina recién en el año 1993 implementó el premio de esta categoría [6].
No debemos olvidar que el Club de Gestión de la Calidad nos indica que el EFQM
es un modelo desarrollado para aplicar la filosofía de la calidad total. Es conocido
también como un marco conceptual estructurado de gestión, no prescriptivo y no nor-
mativo, aplicable a todas las organizaciones públicas y privadas [7].
Por su parte los modelos vistos en Latinoamérica presentan numerosas similitudes
entre sí, en muchos casos utilizan los mismos criterios o muy similares, y los princi-
pios que subyacen detrás de cada modelo también son muy parecidos [16].


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Los modelos Latinoamericanos puede adaptarse a nuestro caso de estudio; pero te-
niendo en cuenta que EFQM presenta todo lo que los demás modelos mostraron y
además es utilizado en Europa por más de 20.000 organizaciones [17], incluso sumi-
nistra reglas de análisis ampliamente validadas por la experiencia, además dispone de
amplia información y bibliografía al respecto. Por ello, nos hemos decantado por
trabajar con el Modelo EFQM de Excelencia para la realización de este caso de estu-
dio.

3 El Decanato de UTN-FRT con el enfoque EFQM:2010

El presente Sistema se definió e implantó en el Decanato de UTN-FRT, la cual es


una de las 24 Regionales con las que cuenta la Universidad, distribuidas en las ciuda-
des más importantes de Argentina. El Decanato está compuesto por el Decano, Vice-
decano, 6 Secretarias (“Académica”, “Administrativa”, “Ciencia, Tecnología e Inno-
vación”, “Extensión Universitaria”, “Planeamiento” y “Asuntos Estudiantiles”) y 7
Direcciones (“Relaciones Institucionales”, “TICs”, “Graduados”, “Posgrado”, “Tecni-
caturas”, “Proyectos Informáticos” y “Vinculación Tecnológica”).

En el año 2012 se realizó la Autoevaluación del Decanato de UTN-FRT con EFQM


que permitió observar objetivamente el estado de la facultad. De ese trabajo se obtuvo
un diagnóstico de la situación de la organización y una serie de acciones de mejora.
Para este proyecto consideraremos una de ellas, “Definir un Sistema de Gestión por
Procesos que incluya el mapa de procesos identificando los procesos estratégicos,
claves y de apoyo, así como la lista de procesos”.

4 Metodología

Este proyecto fue dividido principalmente en tres grandes fases:


x Redefinición del Decanato UTN-FRT. Se analizó el contexto, la estructura de
funcionamiento y el organigrama de la organización para establecer su posible
adaptación al enfoque de EFQM:2010.
x Planificación de la Implantación. Se definió conjuntamente con la organiza-
ción la estrategia y los objetivos para alcanzar una implantación óptima del
Sistema. Se incluyeron tareas de difusión y sensibilización, constitución del
equipo de trabajo y el comité de calidad, entre otras, para generar finalmente el
plan de implantación más adecuado a llevar adelante.
x Implantación del Sistema de Gestión de Calidad. Tomando como síntesis de la
estrategia Definir e implantar un Sistema de Gestión de la Calidad por proce-
sos con EFQM, que impacte positivamente en otras acciones de mejora rela-
cionadas, priorizando los procesos que vinculen alumnos, para conocer sus
expectativas y necesidades, aprovechando las Reuniones de Gabinete y los
puntos fuertes del diagnóstico de 2012, y siguiendo el plan establecido se prio-
rizó el desarrollo de los procesos Satisfacción de Cliente (alumno), Gestión de


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Incidencias y Reunión de Gabinete, con lo que se logró alcanzar los objetivos


establecidos.

5. Resultados

5.1. Planificación de la Implantación del Sistema de Gestión por Procesos.


Teniendo en cuenta que generalmente la implantación completa de un sistema de
estas características lleva más de un año, y con el fin de realizarlo en el menor tiempo
posible, hemos decidido priorizar los procesos que se implantarán en el primer perio-
do de la siguiente manera: Control Documental (piedra angular de sistema), Satisfac-
ción del Cliente (para conocer qué necesita el alumno), Gestión de Incidencias (apro-
vechando el canal de comunicación) y Reunión de Gabinete (punto clave de esta ges-
tión); para concluir con todo la implantación en el mes de Julio de 2014.

5.2. Implantación del Sistema de Gestión de la Calidad por Procesos en el


Decanato de UTN-FRT.
Es importante destacar que durante el proceso de implantación en ningún momento
se detuvo el funcionamiento del Decanato para introducir este Sistema, se contó con la
colaboración de los distintos responsables de cada una de las Secretarías y Direccio-
nes. Estos prosiguieron con sus actividades mientras se iban interiorizando y aplican-
do en los procesos y los nuevos métodos de trabajo. Esta implantación paulatina,
facilitó la asimilación del cambio, así como la verificación de la pertinencia y adecua-
ción de los procedimientos y controles para la mejora continua.
En la actualidad hemos implantado cuatro procesos, debidamente documentados,
siguiendo una estrategia desarrollada conjuntamente con el Decanato, lo que ha su-
puesto ejecutar un 25% de la implantación total.
Asimismo el resto de procesos que no fueron implantados se encuentran en fase de
desarrollo y documentación, y podemos estimar que ese trabajo permitirá un avance
de un 10% más sobre el restante.

6. Conclusiones y Futuras Líneas de Investigación.

Finalmente pusimos en marcha una poderosa herramienta, que permitirá optimizar la


gestión de esta organización hacia la excelencia. Hemos desarrollado una estructura
de documentación “a medida” y en detalle, que permitirá continuar implantando este
sistema, y gestionarlo con mayor facilidad. La comunidad académica comenzó a estu-
diar e implementar el sistema de gestión de calidad. Adicionalmente impactamos
sobre otra acción de mejora definida en el diagnostico EFQM 2012, “Sistematizar la
recogida de información de necesidades, quejas y reclamaciones y su uso posterior.”
A futuro se propone la integración de éstos resultados a los del diagnóstico EFQM
de 2012, para la Autoevaluación en diciembre de 2013. Así como la posible certifica-
ción con la norma ISO 9001, ya que el Sistema puede ser adaptado a dicho estándar.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Bibliografía

1. IESALC/UNESCO, Tendencias de la Educación Superior en América Latina y el Caribe, 1


ed., Santiago de Chile: IESALC/UNESCO, 2008.
2. Vieytes Suquilvide, M., «Consultora Intenacional,» 30 Mayo 2013. [En línea]. Disponible
en: http://www.consultorainternacional.com/articulos.htm. [Último acceso: 30 Mayo 2013].
3. Torres Butet, J., «Técnica Industrial,» 15 Mayo 2013. [En línea]. Disponible en:
http://procesos.univalle.edu.co/documentos/CAPACITACION/Cartilla_capacitacion_proces
os.pdf. [Último acceso: 15 Mayo 2013].
4. Club de Gestion de la Calidad, EFQM, “Introduccion a la Excelencia", P. ed., Madrid: Club
de Gestion de la Calidad, 1999.
5. Maigua, G. G., Autoevaluación EFQM en el Decanato de la Facultad Regional Tucumán de
la Universidad Tecnológica Nacional, Republica Argentina, P. ed., Madrid: Escuela
Politécnica de Ingeniería Informática, 2012.
6. Benavides Velasco, C. Á., Un modelo integrado de gestión para la empresa industrial, P.
ed., Málaga: Universidad de Málaga, 1999.
7. Henderson García, A. Cifras. Los Premios a la Calidad en la Administración Pública, P. ed.,
El Salvador: ICAP - Revista Centroamericana de Administración Pública, 2001.
8. Porter, M. E. Competitive Strategy: Techniques for Analyzing Industries and
Competitors. New York: Free Press, 1980. (Republished with a new introduction, 1998.)
9. ISO 9001:2008, Sistemas de gestión de la calidad. Requisitos, AENOR, 2008.
10. UNE-EN-ISO-9000:2005. Sistemas de gestión de la calidad. Fundamentos y vocabulario.
AENOR, 2005.
11. Casasús Fa, M., Heras Saizarbitoria, I., y Merino Díaz de Cerio, J. Calidad práctica. Una
guía para no perderse en el mundo de la calidad. Prentice Hall, 2005.
12. Camisón, C., Cruz, S., y González, T. Gestión de la calidad: Conceptos, enfoques, modelos,
y sistemas. Pearson Educación, S.A., 2007.
13. Wikipedia, «Wikipedia,» Wikipedia, 30 Mayo 2013. [En línea]. Disponible en:
http://es.wikipedia.org/wiki/William_Edwards_Deming. [Último acceso: 30 Mayo 2013].
14. NIST - Baldrige performance excellence, «NIST - Baldrige performance excellence
program,» 30 Mayo 2013. [En línea]. Disponible en:
http://www.nist.gov/baldrige/about/history.cfm. [Último acceso: 30 Mayo 2013].
15. EFQM, «efqm.org,» 30 Mayo 2013. [En línea]. Disponible en: http://www.efqm.org/.
[Último acceso: 30 Mayo 2013].
16. Focuswine, «Focuswine,» 18 Julio 2013. [En línea]. Disponible en:
http://www.focuswine.cl/index2.php?option=com_content&do_pdf=1&id=287. [Último
acceso: 18 Julio 2013].
17. Wikipedia, «Wikipedia,» 18 Julio 2013. [En línea]. Disponible en:
http://es.wikipedia.org/wiki/Fundaci%C3%B3n_Europea_para_la_Gesti%C3%B3n_de_la_
Calidad. [Último acceso: 18 Julio 2013].


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Arquitetura Pedagógica de um Programa de Extensão EaD

Daniela Bagatini1,2, Charles Airton Bernardini1 e Rudimar Serpa de Abreu1


1
Assessoria para Educação a Distância, Universidade de Santa Cruz do Sul
Avenida Independência, 2293 – Santa Cruz do Sul – RS - Brasil
{bagatini, cbernard, rudisa}@unisc.br
2
Faculdade de Desenvolvimento do Rio Grande do Sul
Rua General Vitorino, 25 – Porto Alegre – RS - Brasil
{daniela.bagatini}@fadergs.edu.br

Abstract. This paper introduces the conception and architecture of a continuous


program of professors formation in course of distance modality. Based on the
architecture also if refers the management skills, as one of mobilization elements of
a project. The synergy this work became possible the elaboration a reference model
to seven courses, that have a didactic design guided in the interaction among
participants and comply with financial sustainability of the project.
Keywords: Architecture education, distance education, management skills.

1 Introdução
Em 2004, Palloff e Pratt [1] salientavam em seu livro que as melhores práticas no ensino
online dependiam do uso eficaz de várias tecnologias. Já em 2013, as mesmas autoras
destacam os ensinamentos de Graham e seus colaboradores (2001) apud [2], dizendo que:
“os intrutores devem fornecer diretrizes claras para a interação com os estudantes;
fornecer tarefas de discussão bem-planejadas para promover a cooperação entre os
estudantes; encorajar os estudantes a apresentarem uns para os outros os trabalhos do
curso; fornecer feedback imediato; fornecer prazos para a entrega de tarefas; fornecer
tarefas desafiadoras; e permitir que os estudantes escolham os tópicos dos trabalhos.”
Palloff e Pratt (2013, p.25).

No entanto, antes mesmo de contemplar a excelência da interação online, é necessário


pensar no planejamento e organização do projeto de um curso, ou seja, é preciso pensar no
processo como um todo, em sua arquitetura. Seja para educação online ou não, um curso
deve emergir da reflexão, do planejamento e da concepção de uma proposta pedagógica
alinhada a uma proposta de gestão. Como pilar deste planejamento e organização, tem-se
a arquitetura pedagógica. Conforme [3], a arquitetura pedagógica corresponde ao
“Sistema de premissas teóricas que representa, explica e orienta a forma como se aborda o
currículo e que se concretiza nas práticas pedagógicas e nas interações professor-aluno-
objeto de estudo/conhecimento.”


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Neste contexto, pensar na arquitetura pedagógica é olhar para cada uma das nuâncias de
um curso que tem seu processo de desenvolvimento dependente de um projeto
sustentável, integrado e com objetivos claros. Portanto, [3] destaca que a arquitetura
pedagógica deve levar em consideração aspectos metodológicos, tecnológicos,
organizacionais e de conteúdo.

O presente artigo apresenta a concepção de arquitetura de um programa de formação


continuada para professores, estruturado por cursos de extensão, na modalidade a
distância. A arquitetura é resultado do trabalho conjunto de professores, coordenação
tecnopedagógica, coordenação de projetos, coordenação tecnológica e produção de
materiais, assim também explora-se neste artigo as competências da gestão. A sinergia
deste trabalho tornou possível a elaboração de um modelo de referência para os cursos,
que possuem um desenho didático pautado na interação entre os participantes e no
atendimento à sustentabilidade financeira do projeto.

2 Educação em Rede
A tecnologia em rede permite expandir as possibilidades e explorar novas oportunidades,
no trabalho, na educação e na expressão da cidadania, ao instituírem meios inovadores de
comunicação e colaboração. Ela amplia a busca e a pesquisa de informações em um
círculo construtivo coletivo, que permite acesso e conexões em uma cultura de
compartilhamento e reutilização, baseada na troca de experiências, conteúdos e recursos.
De acordo com [5], vivencia-se “novas maneiras de adquirir conhecimento e
competências, especialmente as que incluem ênfase em trabalho colaborativo,
compartilhamento de informações e alto grau de interatividade” Litto (2010, p.53).

As redes de aprendizagem fortalecem a escola enquanto espaço aberto e conectado com o


mundo e o professor, enquanto pesquisador e autor de projetos educativos concernentes
com as demandas da atualidade. Mobilizado por esse pensamento, um grupo de
profissionais desenvolveu uma proposta de cursos na área de educação que têm em
comum o conceito de rede de aprendizagem, construída pela colaboração e interação entre
os educadores participantes dos cursos. Tal proposta também é fruto de um trabalho
vivenciado em rede, do engajamento, colaboração e competências de seus autores e,
principalmente, da condução de um programa que envolve diferentes pessoas, espaços,
necessidades de suporte e condições para um processo e realização de um projeto EaD.

2.1 Programa Educação em Rede

O Programa de Formação Continuada para Professores Educação em Rede destinou-se a


professores das escolas de Educação Básica de diferentes municípios e buscou construir e


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

ampliar competências com vistas à qualificação docente, contribuindo para a


aprendizagem efetiva e para uma escola de qualidade para todos.

Na proposição do programa assegurou-se um momento presencial e momentos a


distância, para apoiar e garantir a comunicação e a interação entre todos os participantes,
por meio de diferentes suportes, ambientes de aprendizagem, recursos e materiais. Foi
previsto o seguinte formato: um seminário de abertura do programa e sete cursos de
formação continuada para professores, organizados e gerenciados pela Assessoria de
Educação a Distância da Universidade de Santa Cruz do Sul (AEAD UNISC).

O seminário de abertura foi realizado em cada município e contou com a participação dos
professores, público-alvo do programa. Envolveu os seguintes momentos:
1. sensibilização para a formação continuada através de uma encenação teatral concebida
a partir das temáticas desenvolvidas no programa;
2. palestra sobre a articulação entre Empresa / Universidade / Gestores Públicos para a
viabilização da formação continuada de professores;
3. oficina pedagógica sobre o uso da tecnologia na formação docente.

Os sete cursos foram organizados na modalidade Educação a Distância. Cada curso com
uma carga horária de vinte horas. O monitoramento constante, por intermédio do
Ambiente Virtual de Aprendizagem da UNISC, possibilitou uma avaliação permanente e
um atendimento imediato das demandas dos participantes, permitindo atingir melhores
resultados. Os cursos ofertados pelo programa foram: Alfabetização e Letramento,
Avaliação Escolar, Educação Ambiental, Educação e Tecnologias, Pesquisa na Educação,
Psicomotricidade, Trabalho e Educação.

Sendo assim, o programa foi submetido ao edital 2012/02 de seleção pública de


patrocínios da Companhia Riograndense de Mineração (CRM). Contemplado por este
edital, o programa teve um período de realização de 06 meses e resultou na capacitação de
210 professores das escolas de Educação Básica dos municípios de Minas do Leão e
Candiota, disseminando o conceito de rede de aprendizagem, construída pela colaboração
e interação entre a AEAD UNISC, a CRM, Escolas Públicas e as Secretarias de Educação
dos municípios.

3 Arquitetura Pedagógica
O programa teve sustentação no desenho de uma arquitura que contempla aspectos
metodológicos, tecnológicos, organizacionais e de conteúdo [4]. A Figura 1 ilustra o mapa
conceitual que representa o desenho didático do programa e que serve de modelo para os
sete cursos.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Figura 1. Arquitetura pedagógica

Os aspectos organizacionais são apresentados em amarelo e verde, correspondem a


organização do curso quanto a tempo e espaço, expectativas e propósitos. Leva-se em
consideração a flexibilização de dedicação do estudante ao curso. No entanto, para
organização do grupo (social), tem-se explicitados os objetivos e momentos de conclusão
de atividades. Todo o suporte ao estudante também é evidenciado nesse aspecto, desde os
serviços de apoio até o suporte técnico.

Os conceitos em verde também representam o conteúdo e os artefatos utilizados. Os


conteúdos estão alinhados com os propósitos e são construídos de forma que permitam ao
estudante traçar a sua rota de aprendizagem. Os artefatos equivalem ao design e aos
materiais disponibilizados pelo curso. O curso contém várias mídias que são integradas
pelos cadernos pedagógicos, escritos através de uma fala dialógica do professor, no intuito
de mobilizar o estudante. Os diferentes elementos que compõem o caderno didático são
pensados de maneira a contemplar os diferentes estilos de aprendizagem e formas de
aprender [6].

Os conceitos em rosa e azul correspondem aos aspectos metodológicos e tecnológicos, ou


seja, apresentam as atividades, formas de interação e método de avaliação. Quanto aos
aspectos metodológicos, o curso tem um arranjo pensado de modo a propor a sinergia
entre seus recursos, procedimentos e técnicas; que tem inspiração nos propósitos do curso
e nas expectativas do estudante. Assim, também foi necessário possibilitar ao estudante a
flexibilidade de construção (diferentes rotas de aprendizagem) e a apropriação dos temas


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

trabalhados (relação com o seu contexto de atuação). Neste sentido, é importante que o
estudante tenha feedback constante de suas atividades e perceba o seu desenvolvimento.

Ressalta-se ainda no aspecto metodológico, que o curso está dividido em três momentos:
o primeiro leva o estudante a reflexão e compartilhamento social de situações contidianas;
o segundo momento mobiliza o estudante a explorar situações-problema e propor soluções
com base nas reflexões realizadas anteriormente; já o terceiro momento, leva o estudante
a relacionar as aprendizagens com a sua prática e a encontrar novas possibilidades.

O mapa ilustrado na Figura 1 serve como modelo de desenho para os sete cursos. Apenas
as unidades de estudo, apresentadas na descrição das semanas (em verde), diferem de um
curso para outro. As unidades apresentadas na Figura 1 correspondem aos conteúdos
trabalhados no curso “Educação e Tecnologias” (Figura 2), que tem como objetivos:
proporcionar ao estudante conhecer o histórico que permeia a relação entre educação e
tecnologia e, discutir sobre como o computador e a rede são inseridos no processo de
aprendizagem, discutir o assunto aprendizagem em rede na Web 2.0 e conhecer
comunidades práticas na área da educação, além de experenciar uma ferramenta de autoria
coletiva da Web 2.0.

Figura 2. Curso Educação e Tecnologias

4 Competências da Gestão
As competências do projeto emergem de seu planejamento, organização e sinergia, antes e
durante a execução. Suas capacidades instigam práticas de situações desafiadoras
desenvolvidas com foco no estudante. Assim, o Programa Educação em Rede parte do
presuposto de estimular o estudante a se apropriar de competências que perpassam pelos
domínios cognitivos, tecnológicos e sociocultural. Na Figura 3, a base do mapa apresenta
os aspectos mobilizadores para o desenvolvimento das competências.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Conforme [4] “O domínio cognitivo corresponde as competências pautadas no sujeito e


sua aprendizagem, portanto, na construção do conhecimento, coordenação das ações e
organização pessoal. O domínio tecnológico está relacionado às competências quanto ao
uso dos recursos tecnológicos na EAD. O domínio sociocultural se refere aos aspectos
sociais e culturais.” Behar et al. (2013, p. 51).

Para além dos seus objetivos, todo projeto tem o desafio de mobilizar e organizar as
condições humanas, recursos materiais e financeiros, ambos necessários para o sucesso do
processo educativo. As competências de um projeto são peças-chave para o bom
desenvolvimento de todo o processo e de todos e, em essência, são reflexo das ações e
competências das pessoas envolvidadas com o mesmo.

Desta forma, [4] acrescenta mais um conjunto de competências que classifica ao


“Domínio da Gestão”. Tais competências estão voltadas para a organização e garantia do
bom funcionamento e atendimento aos cursos. No caso específico do Programa Educação
em Rede, a gestão compreende a coordenação de projetos, amparada pela coodenação
tecnopedagógica, pelos professores e equipes de produção de materias e tecnológica,
ambos atores responsáveis pelo desenho do programa, de forma a atender as necessidades
didáticas, práticas, acadêmicas e financeiras.

Figura 3. Mobilização das competências


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Para atender os anseios da proposta contemplada no desenho da arquitetura do Programa


Educação em Rede (ilustrados nos mapas das Figuras 1 e 3), foi preciso mobilizar e
conscientizar os estudantes para suas responsabilidades como aluno virtual, bem como
possibilitar que a equipe de trabalho conhecesse as necessidades de seus estudantes.
Portanto, o contato inicial no evento de abertura foi fundamental. Para isso, foi preciso
deslocar a equipe de trabalho até os minicípios contemplados pelo programa. A natureza
do desenho do programa também previa uma participação ativa tanto do professor, quanto
da equipe de suporte e de produção de materiais.

Contudo, como em todo projeto, era necessário atender o limitado recurso financeiro e o
controle de recursos. A coordenação do programa além de executar as funções
relacionadas ao curso, precisava assumir uma posição gestora mais complexa. Buscar
inovação e melhoria neste caso, era compreender que para a realização do projeto era
preciso aporte financeiro, de forma a assegurar a execussão do planejado com qualidade.

Coodernar implica tomar a incumbência e incentivar ações colaborativas que favoreçam a


integração e a sincronia entre as ações definidas no projeto e os envolvidos no processo,
tendo em vista atingir os objetivos de forma eficiente e eficaz. Para tal, o programa
precisou de parceiros dispostos a auxiliar no investimento e que acreditassem na proposta
apresentada. Desta forma, dentre as habilidades da gestão para a mobilização e realização
do programa, destaca-se com base em [4] e [7]:
• Identificação de possibilidades (no que tange ao apoio fincanceiro), valor e
aplicabilidade (como aproximação com as Secretarias Municipais de Educação, de
forma a conhecer e a criar espaços de compartilhamento e colaboração).
• Operacionalização dos recursos, técnicas e projeto.
• Gestão do relacionamento e integração entre ao atores envolvidos.
• Alinhamento das aspirações do desenho pedagógico com a gerência dos controles
financeiros.
• Gerenciamento das condições sinergéticas entre as dimensões, visando o
entrelaçamento.
• Manter o projeto centrado nas competências estabelecidas e nos resultados de
avaliação.

Tais habilidades foram mobilizadas por atitudes como: relacionamento interpessoal,


iniciativa, tomada de decisões, flexibilidade, objetivo, foco, organização, inovação,
articulação, negociação e comunicação. Bem como envolveram conhecimentos como:
plano de gestão, processos didáticos-pedagógicos, exercício orçamentário, coordenação de
equipes, compreensão das dimensões envolvidas, técnicas e métodos de gestão.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

5 Considerações finais
"Pensar" na arquitetura pedagógica é pensar nas competências de um curso e daqueles que
lhe dão vida. Suas capacidades impulsionam práticas e situações desafiadoras. As
competências de um curso emergem de seu planejamento, organização, entendimento de
seus objetivos, e é o seu desenho que ilustra todo o propósito e sentido. Cuidar do desenho
de um projeto é o primeiro passo para coduzir o estudante a vivenciar e se apropriar de
competências, que perpassam para além de conteúdos, pelos domínios cognitivos,
sociocultural e tecnológico.

Como resultado das aspirações abordadas neste artigo, foi apresentado o escopo do
Programa Educação em Rede na modalidade a distância, que tem ilustrado no desenho da
sua arquitetura o modelo que serviu como referência para sete cursos. Tudo isto tem
sentido quando emerge de um planejamento e gestão empenhada, com cuidado e respeito,
ao alcance dos objetivos do projeto. Segundo [7] e [4],
“mais do que ter ciência da estrutura do curso do qual faz parte, o
coordenador necessita ter competência na sua prática profissional, tendo
como base a importância dos aspectos pedagógicos, administrativos,
tecnológicos e de gestão. Entende-se, assim, que a relação construída entre os
diferentes elementos que compõe o planejamento e a prática de sua proposta
de gestão podem intervir nos resultados almejados” Behar (2013, p.148).

Agradecimentos
Companhia Riograndense de Mineração (CRM) e UNISC, financiadores do Programa.

REFERÊNCIAS
1. Palloff, R. M.; Pratt, K. O Aluno Virtual: Um guia para trabalhar com estudantes on-line. Porto
Alegre: Artmed (2004)
2. Palloff, R. M.; Pratt, K. O Instrutor Online: Estratégias para a excelência profissional. Porto
Algre: Penso (2013)
3. Behar, P. A. e colaboradores. Modelos Pedagógicos em Educação a Distância. Porto Alegre:
Artmed (2009)
4. Behar, P. A. et al. Competências em Educação a Distância. Porto Alegre: Penso (2013)
5. Litto, F. M. Aprendizagem a Distância. São Paulo: Imprensa Oficial do Estado de São Paulo
(2010)
6. DeAquino, C. de T. E. Como Aprender: andragogia e as habilidades de aprendizagem. 1ª ed.
São Paulo: Pearson Prentice Hall (2007)
7. Bernardi, M. Construindo e (re)construindo os caminhos da educação a distância: da gestão às
arquiteturas pedagógicas. Projeto de tese – Faculdade de Educação, UFRGS, Porto Alegre
(2008)


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Influencia del feedback dinámico


en clases presenciales mediante dispositivos móviles

F Javier. Mourín

Estudiante de doctorado
Departamento de Ciencias de la Computación
E.T.S. de Ingeniería Informática
Universidad de Alcalá
28871 Alcalá de Henares (Madrid)
E-mail: fjmourin@lunasistemas.es

Resumen. Hoy en día hay muchos CRS, Classroom Response System (Sistema
de Respuesta en el Aula) que podemos utilizar para las clases. Existen muchos
tipos, comerciales, gratuitos, y se puede considerar que el CRS se ha converti-
do en una herramienta educativa estándar. Estos sistemas pueden proporcionar
una retroalimentación dinámica, y puede influenciar sobre la interactividad,
rendimiento y la motivación de los estudiantes. En este articulo se plantea si
estos CRS virtuales pueden proporcionar realimentación dinámica, influir en
la interactividad, el rendimento y la motivación, que es beneficiosa en objeti-
vos educativos.

Palabras clave: CRS, feedback dinámico, interactividad, motivación, disposi-


tivos móviles.

1 Introducción

Un sistema de respuesta en clase (CRS) es cualquier sistema que se utiliza en un am-


biente cara a cara a los estudiantes, a los que se encuesta con el fin de obtener retroa-
limentación inmediata, en respuesta a las preguntas formuladas por los instructores.
Los instructores pueden proyectar las gráficas de respuesta en la clase, para que los
estudiantes puedan comparar sus respuestas con las de sus compañeros de clase.

Por lo general, los CRSs necesitan un hardware / software específico para funcio-
nar. Hay muchos sistemas comerciales diferentes que se utilizan en las escuelas y
universidades, sin embargo, todos ellos se basan un hardware y software propietario.
Típicamente, los dispositivos (clickers) se comunican en votación con una estación
base, utilizando un enlace de radio, y el software de voto muestra los resultados
usando un programa dedicado.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Algunos tipos de CRS que se pueden encontrar:

• El clicker con mandos a distancia y una estación base


• Sistema de respuesta con SMS en teléfonos móviles
• Sistema utilizando mensajes Bluetooth
• Joysticks o mandos a distancia con cable de conexión
• Los sistemas de respuesta en dispositivos móviles con conexión a Internet

Los mandos pueden dar diferentes tipos de respuestas, algunos mandos solo pue-
den dar unos pocos tipos, dependiendo de su construcción y su tecnología. El tipo de
respuesta puede ser desde simplemente pulsar un botón a las opciones numéricas, las
opciones alfanuméricas, frases, dibujos o fotografías. Los clickers sólo tienen opcio-
nes alfanuméricas y los CRSs que utilizan dispositivos móviles, puede tener más op-
ciones.

En este artículo nos centramos en sistemas que utilizan dispositivos móviles. Un


dispositivo móvil se puede definir como un dispositivo informático pequeño, de
mano, por lo general tiene una pantalla con entrada táctil y / o un teclado en minia-
tura y un peso de menos de un kilogramo. Ahora los equipos son más grandes, las ta-
bletas o los pequeños ordenadores portátiles (NetPC) son considerados como disposi-
tivos móviles. Este tipo de dispositivos pueden tener en las clases teóricas un papel
importante en la obtención de feedback al instructor.

Aquí se propone analizar como afecta el uso de sistemas de respuesta en clase


(feedback dinámico) que se basan en el uso de dispositivos móviles, en la participa-
ción, motivación, resultados, etc. Para ello se propone el análisis de varios métodos
de realimentación, unos basados en simples encuestas que realiza cualquier CRS y
otros en herramientas diseñadas para ello, como podrían ser, por ejemplo, la reali-
mentación positiva por parte del profesor, el control de evolución de la clase en se-
gundo plano o el uso de semáforos. Para análisis de herramientas se propone un dise-
ño de un CRS para ello.

2 Teoría base y primera investigación

Existen muchas experiencias publicadas de la utilización de CRSs en clases presen-


ciales, y existen varios enfoques. Con respecto al número de alumnos, en pequeñas
aulas, el profesor y los estudiantes pueden fácilmente interactuar y comunicarse. En
cambio, donde son necesarias grandes aulas debido a un número grande de estudian-
tes, estas pueden ser lugares intimidatorios e impersonales, donde las interacciones
entre instructores y estudiantes son limitadas y breves. El flujo de la comunicación
tiende a ser de un solo sentido [3].


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Según la interactividad, se observa que todos los autores coinciden en que el uso
de estos dispositivos puede aumentar la interactividad.

Determinar cuando una clase es interactiva es una tarea difícil en perspectiva [4].
Los profesores podrían ver sus clases como interactivas porque ellos hacen o aceptan
preguntas, pero frecuentemente fallan al examinar la calidad, contenido, frecuencia o
duración de las interacciones, siendo un factor a tener en cuenta el número de estu-
diantes que participan.

Yacci [7] expone que la interactividad es un mensaje en bucle. Estructuralmente,


interactividad es un circuito de mensajes fluyendo desde una entidad originadora a
una entidad objetivo. Nosotros podríamos referirnos a esto como un bucle interacti-
vo. Las entidades en un bucle interactivo pueden ser estudiantes, instructores, com-
putadoras, o medios capaces de recibir o enviar mensajes, como en nuestro caso los
dispositivos móviles (ver figura 1). Las definiciones anteriores son desarrolladas des-
de las teorías educacionales y de las comunicaciones, y son independientes de la tec-
nología. En contraste, Liu [5] clasifica cuatro tipos de interacción según el medio de
comunicación: cara a cara, a través de ordenadores, humano-ordenador y simultanea
en grupo.

Fig. 1. Un bucle completo en dos pasos desde la perspectiva del profesor. [7]

Cuando nosotros obtenemos feedback en clase ocurre interactividad. Markett [6]


define tres interacciones clave: aprendiz-contenido, aprendiz- instructor, y aprendiz-
aprendiz. Una diferente manera de definir la interactividad es la enfocada en la es-
tructura bucles de ideas, coherencia y originador.

La presencia de interactividad en el aula proporciona beneficios en la promoción


de más entornos de aprendizaje, construyendo comunidades de aprendizaje, propor-


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

cionando más información a los instructores, y también contribuye a la motivación


de los estudiantes.

Respecto a la utilización de CRSs Esponda [1] expone que el voto electrónico pue-
de aumentar el nivel de participación en clase, y puede ser una herramienta educati-
va eficaz. Sin embargo, a veces incluso los profesores entusiastas, utilizan el voto
electrónico sólo un par de veces antes de darse por vencido, debido a la sobrecarga
considerable por la utilización de algunos de estos sistemas.

3 Conclusiones

El uso de un CRS que realiza un bucle de mensajes entre profesor y alumno produce
una interactividad, independientemente del sistema que se use, en nuestro caso dis-
positivos móviles. Para analizar si influye en la interactividad de la clase necesita-
mos comprobar la interactividad existente sin el uso de estos dispositivos, y con estos
en comparación.

El rápido desarrollo hacia el despliegue de la tecnología móvil a nivel de la


escuela, ofrece a los estudiantes nuevas oportunidades para aumentar el compromiso,
la motivación y el aprendizaje. De hecho, las tecnologías móviles están
revolucionando la educación escolar y la transformación del aula convencional con
aplicaciones interactivas en el aula, que tienen el potencial para mejorar la
experiencia de aprendizaje de los estudiantes [1].

Parece apropiado comprobar si los métodos utilizados con dispositivos móviles in-
fluyen en la realización de clases presenciales, en parámetros como la motivación,
interactividad y otros. También puede ser adecuado comprobar si el simple uso de
por si aumenta la interactividad, o depende de la estrategia o método utilizado.

Respecto a los métodos utilizados son comunes la realización de preguntas aisla-


das en el transcurso de la clase, la evaluación, evaluar conocimientos previos, o res-
puestas en grupo y discusión de resultados. Estos sistemas tienen muchas posibilida-
des y se plantea también la creación de herramientas para soportar métodos nuevos.

Algunos autores observan que el uso de algunos de estos dispositivos, pueden ha-
cer perder tiempo de clase en su instalación, preparación de contenidos, utilización y
solución de pequeños problemas de manejo. La usabilidad de estos dispositivos puede
ser muy importante para ser aceptados por los usuarios. Parece conveniente exami-
nar las características de usabilidad de un sistema, en nuestro caso basado en disposi-
tivos móviles, y encuestar a los usuarios, tantos alumnos como instructores sobre la
facilidad y su utilidad.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Involucrar a los estudiantes en las clases grandes es un reto en el mejor de los ca-
sos. Los profesores buscan cada vez más la ayuda de las nuevas tecnologías para
atraer y mantener la atención de sus estudiantes conocedores de la tecnología.

Estudios previos han indicado que la participación de los estudiantes en activida-


des con proposito educativo, tiene efectos deseables en los resultados de aprendizaje
del estudiante, en la forma de ganancia en la capacidad general, el pensamiento críti-
co, las calificaciones y las tasas de persistencia [2].

Referencias

1. Ahmed, S. , Parsons, D. Abductive science inquiry using mobile devices in the


classroom. Computers & Education 63 (2013) 62-72, (2012)
2. Esponda, M. Electronic Voting On-the-Fly with Mobile Devices. ITiCSE 2008, Annual
Conference on Innovation and Technology in Computer Science Education, June 30 –
July 2, Madrid, Spain, (2008)
3. Jain, A. , Farley, A. Mobile Phone-Based Audience Response System and Student
Engagement in Large-Group Teaching. ECONOMIC PAPERS, VOL. 31, NO. 4,
December 2012, 428–439, (2012)
4. Kim, S. , Gandomi, N. , Smith, K. Students on the Move: a Tangible Classroom
Response System. Berkeley University, Todavía no publicado, (2010)
5. Liu, Y. Shrum, L. J. What is interactivity and is it always such a good thing?. Journal of
Advertising; Winter 2002; 31, 4; ABI/INFORM Global. (2002)
6. Markett, C. , Arnedillo, I. , Weber, S. , Tangney, B. Using short message service to en-
courage activity in the classroom. Computers & Education 46 (2006) 280-293, (2005)
7. Yacci, M. Interactivity Demystified: A Structural Definition for Distance Education and
Intelligent CBT. Educational Tecnology 40 (4), 5-16, (2000)


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Estado del Arte sobre Estudio de los Cambios en la


Descripción de Recursos Publicados en las Redes Sociales
Aplicación en Twitter

Gabriela M. Agila1, y Jorge A. López1

1
Tecnologías Avanzadas de la Web y Sistemas Basados en el Conocimiento
Titulación en Sistemas Informáticos y Computación.
Universidad Técnica Particular de Loja
1101608 San Cayetano Alto S/N (Loja-Ecuador)
E-mail: {gmagila, jalopez2}@utpl.edu.ec

Resumen. En este artículo se presenta una investigación en desarrollo sobre


los cambios en la descripción de recursos publicados como links en la red social
Twitter, los cambios serán medidos a través de hashtags, menciones, y palabras.
Con este estudio se pretende diseñar e implementar un algoritmo que determine
los cambios que experimenta un recurso, para así poder realizar un estudio real
de la difusión de información en Twitter.
Palabras clave: Hashtags, Menciones, Palabras, SNA, Difusión de la
Información.

1 Introducción

Las Redes Sociales son herramientas útiles que permiten informar, comunicar y
conectar con personas en cualquier parte del mundo. El acceso al Internet es diferente
en cada región, sin embargo existe una necesidad latente del ser humano por
interactuar con otros que han hecho que esas brechas digitales sean cada vez menores
(iLifebelt, 2013).
En sentido amplio, una red social es una estructura social formada por personas o
entidades conectadas y unidas entre sí por algún tipo de relación o interés común. El
término se atribuye a los antropólogos británicos Alfred Radcliffe-Brown y Jhon
Barnes. Las redes sociales son parte de nuestra vida, son la forma en la que se


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

estructuran las relaciones personales, estando conectados mucho antes de tener


conexión a Internet (Ponce, 2012).
Los medios de comunicación revolucionaron la vida de las personas a medida
que fueron apareciendo en su contexto de emergencia. Esto ocurrió en nuestro país y
en el mundo entero. Internet no ha sido la excepción. Desde su surgimiento cambió
rotundamente la forma de comunicación que se manejaba hasta entonces. Fue
evolucionando a pasos agigantados hasta convertirse en lo que hoy conocemos. Las
redes sociales, como la que se tratará en esta investigación, Twitter, que es una
manera nueva de comunicarse y de reencontrarse con personas activas en esta red.
“El éxito de Twitter se basa en la simplicidad de su idea matriz”, (Orihuela) .
Twitter se promociona como una de las mejores maneras de compartir y descubrir qué
está pasando a nuestro alrededor en este preciso momento sobre todo para acceder a la
vida de personalidades importantes , se trata de comprender qué usos se le da hoy a
esta red, sobre todo en la comunicación y la transmisión de información.
Es por esto que se realiza una investigación para estudiar los cambios en la
descripción de recursos que contengan links publicados en la red social,
específicamente Twitter en donde se determinará el cambio del “tweet” con respecto a
los “hashtags”, “menciones”, y “palabras”. Para este estudio se presentan métricas y
medidas que se analizarán para diseñar e implementar un algoritmo que determine los
cambios de los recursos.
Este documento está estructurado de la siguiente manera: una sección donde se
describe el análisis de redes sociales y sus métricas. Una segunda sección que habla
sobre la difusión de la información. Como tercera sección se presenta trabajos
relacionados. Una cuarta donde se presenta la propuesta de análisis de difusión de
información. Finalmente una sección de los resultados que se pretende obtener.

2 Difusión de la Información

La difusión de la información es poder sólo cuando la información es compartida y


produce conocimiento colectivo susceptible de mejorar cualquier aspecto de la
sociedad. En este sentido las redes sociales están jugando un papel revolucionario
pero dónde perderse en el anonimato es cada vez más fácil. (Orta, Pardo, & Salas).
Potencialmente, la difusión de información en las redes sociales puede ser muy
eficiente y la información puede llegar a un gran número de personas en un período
muy corto de tiempo. Sin embargo, poco se sabe acerca de los patrones de difusión de
información en los medios sociales y cómo el comportamiento de información en
línea puede haber cambiado.
La influencia se traduce en la capacidad de hacer llegar el mensaje al mayor
número de individuos posibles, donde la información en twitter fluye de manera viral
a partir de la creación y generación de un mensaje y su posterior redifusión por la red
de influencia de la persona que lo emite, y de las redes de los que lo reciben y deciden
reemitirlo, y así sucesivamente hasta que el mensaje muere (Orta, Pardo, & Salas).
Asimismo se puede definir “influencia” como la probabilidad asociada a un nodo de
transmitir o impedir la transmisión de nuevas ideas o pautas de comportamiento en la
red (Ugarte).


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Los expertos coinciden que la aparición de Internet y los navegadores es un hito


en el ámbito de la difusión de información. Por ejemplo, la web 2.0 ha jugado un
papel muy importante en el desarrollo de sistemas descentralizados de distribución de
información. Sistemas como las páginas wiki (Wikipedia), las bitácoras o microblogs
(Twitter), los sistemas de alertas (RSS) o los sistemas de votación (Menéame) han
permitido la construcción de comunidades virtuales que aprovechan la inteligencia
colectiva para generar conocimiento y difundirlo (De la Rosa Troyano).
Twitter tiene una amplia colaboración para la difusión de información, mediante
sus servicios, la difusión del hashtag como tema está gobernada por la influencia de
aquellos que lo utilizan (Romero, Meeder, & Kleinberg, 2011). Esto es una gran
ventaja porque ayuda a organizar la información para que pueda ser difundida y
buscada de mejor manera.
Cada día millones de usuarios se conectan a través de redes sociales, generando
un rico tesoro de datos que permiten estudiar los mecanismos que subyacen a las
interacciones humanas, la estructura de la red afecta a la propagación de la
información entre los usuarios, la red es a su vez formada por esta actividad de
comunicación. Pero los accesos directos basados en el tráfico son otro factor clave en
la interpretación de la evolución de la red. Los usuarios que son populares, activos e
influyentes tienden a crear accesos directos por el tráfico, haciendo que el proceso de
difusión de la información sea más eficiente en la red (Weng, y otros, 2013).

2.1 Twitter
Es una red de información en tiempo real, siendo un servicio de microblogging más
popular y extendido en la Red, en Twitter existen pequeñas explosiones de
información llamadas Tweets (mensajes) que se publican de no más de 140 caracteres
de longitud, que te conectan con las últimas historias, ideas, opiniones y noticias
sobre lo que encuentras interesante como: cine, gobierno y política, gastronomía,
organizaciones, entretenimiento, fútbol, música, cuentas oficiales, elecciones,
innovación, turismo, deportes, medios y periodistas, literatura, moda y belleza. Para
esto se debe localizar las cuentas que te resulten más atractivas y podrás seguir sus
conversaciones, convirtiéndose así en un punto de encuentro global (Twitter, 2013).
La red social twitter se compone de followers y following, que no tienen por qué
coincidir. Intrínsecamente estas redes se verán conformadas por usuarios de intereses
similares, bien sean políticos, económicos, de ocio, etc., lo que se denomina temas o
grupos semánticos primarios (Orta, Pardo, & Salas).

2.2 Datos dentro del contenido del tweet

La información que se encuentra dentro del contenido del tweet, se la menciona a


continuación:

Etiquetas / Hashtags.- Es una convención adoptada por los usuarios de Twitter para
relacionar sus mensajes y hacer referencia a un tópico o tema específico. (Carter,
Tsagkias, & Weerkamp, 2011). El hashtag se compone de una cadena de caracteres


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

corta precedida del símbolo #, fue un recurso creado orgánicamente por la comunidad
de usuarios de Twitter, como una manera de categorizar los mensajes.
Los hashtags reúnen información relativa a un tema y su divulgación y dispersión
depende de la red de los seguidores que deseen participar en la conversación. La
difusión del hashtag como tema está gobernada por la influencia de aquellos que lo
utilizan (Romero, Meeder, & Kleinberg, 2011). La ventaja es que ayudan a organizar
la información para que pueda ser difundida y buscada de mejor manera.

Menciones.- Una mención es cualquier actualización de Twitter que contenga


“@nombredeusuario” en el cuerpo del Tweet, sin importar en qué parte del mensaje
está, las @respuestas también son consideradas menciones (Twitter, 2013).
Las menciones, no siempre le hablan al usuario sino que en ocasiones se usa para
referir a un usuario, claro buscando que la persona tenga conocimiento de esto. Los
tweets que incluyen menciones son empleados para informar al destinatario que se ha
publicado un mensaje que está dirigido a él, se trata de un mensaje, en principio
público y visible por cualquiera, que en el perfil del usuario destinatario irá marcado
de forma especial para darle prioridad. (Collado C, 2011).

Palabras.- Es útil que el tweet contenga texto, que es un entramado de signos con una
intención comunicativa que busca transmitir un cierto mensaje que adquiere sentido
de acuerdo a cada contexto (Wikipedia), pudiendo ser una idea, opinión o
conversación acerca de algún asunto o tema en específico. Se puede aislar las
menciones, hashtag y url, para tomar solo el texto y poder aplicar algún método que
permita analizar palabras.

Links.- Las URL son un Localizador Uniforme de Recursos siendo un sitio web que
apunta a una página única en la Internet (Twitter, 2013) . Se ha demostrado que los
tweets más retweets son los que comparten enlaces o links en su contenido. Las
personas se interesan más por tweets que contienen una url con información adicional.

URL Des-acortada.- El acortamiento de URL es una técnica en la World Wide Web


Esto se logra mediante el uso de una redirección HTTP en un nombre de dominio que
sea corto, que conecta a la página web que tiene una larga URL. En el que un
localizador uniforme de recursos (URL) podrá hacerse sustancialmente más corto en
longitud y sigue directamente a la página deseada (Burply). Esto es especialmente
conveniente para la tecnología de mensajería como Twitter que limita severamente el
número de caracteres que pueden utilizarse en un mensaje.

2.3 Indicadores Twitter

Las redes sociales como Twitter parten principalmente de los motores de búsqueda,
pero arrastran influencias de los medios de comunicación tradicionales y así se habla
de ciertos indicadores, estándares de facto en la actualidad, (Orta, Pardo, & Salas)
como:
 Seguidores: Es el número total de seguidores del usuario.
 Influencia de red: No sólo tiene en cuenta tus seguidores sino su influencia.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

 Amplificación de red: Valor que muestra la influencia directa que tiene un


usuario sobre su red.
 Alcance real: Es un indicador que a partir de la influencia de red y la
amplificación de red calcula el valor de audiencia real a la que puede llegar
el usuario con un mensaje.
 Otras medidas relacionadas con la pasión, la fuerza, el alcance de los
mensajes emitidos por un usuario.
En todos estos casos se parte de un análisis de red social creada a partir de los
seguidores y los seguidos, y de los mensajes que se reenvían de un usuario, pero todos
ellos son análisis centrados en la influencia global de un usuario y no tienen en cuenta
el resto de métricas que el ARS puede extraer de una determinada red, y utilizar estas
métricas para sugerir influenciadores a partir de un determinado tema (Orta, Pardo, &
Salas).
Estas tres actividades representan los diferentes tipos de influencia de una persona:
(Cha, Haddadi, Benevenuto, & Gummadi).

1. Influencia grado de entrada, el número de seguidores de un usuario, indica


directamente el tamaño de la audiencia para ese usuario.

2. Influencia Retweet, que medimos a través del número de retweets que contengan
el nombre de uno, indica la capacidad de ese usuario para generar contenido con paso
de largo el valor.

3. Mención de influencia, que se mide a través del número de menciones que


contiene el nombre de uno, indica la capacidad de dicho usuario para involucrar a
otros en una conversación.

3 Trabajos Relacionados

Contagio de la influencia basada en la difusión de homofilia impulsada en redes


dinámicas.

La difusión depende del tipo de contagio. Contagios complejos, a diferencia de las


enfermedades infecciosas (contagios simples), se ven afectados por el refuerzo social
y homofilia. Por lo tanto, la propagación en comunidades altamente clúster es mayor,
mientras que la difusión a través de las comunidades se ve obstaculizada. Una
hipótesis común es que los memes y comportamientos son contagios complejos. Se
demuestra que, si bien la mayoría de los memes de hecho se extendió como contagios
complejos, algunos memes virales se propagan a través de muchas comunidades,
como las enfermedades. Las características de nodo y comportamientos a menudo se
relacionan con la estructura de las redes sociales a través del tiempo. (Weng,
Menczer, & Ahn, 2013).

Diferencias en la mecánica de difusión de la información.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

El trabajo trata sobre la “Variación en la propagación de hashtags”. Donde se analizan


las fuentes de variación en la forma de que los hashtags más utilizados en Twitter se
propagan dentro de su población de usuarios. Se Encuentra que estas fuentes de
variación no sólo implican diferencias en la probabilidad con la que algo se contagia
de una persona a otra. (Romero, Meeder, & Kleinberg, 2011)

Impacto de los patrones de actividad humanas sobre la dinámica de difusión de


la información.

Estudia el impacto de los patrones de la actividad humana sobre la difusión de


información. Con un experimento de correo electrónico viral que incluyó 31.183
personas en el que han sido capaces de rastrear una pieza específica de información a
través de la red social. Se ha encontrado que la información viaja a un ritmo lento
inesperadamente. Mediante el uso de un modelo de ramificación que describe con
precisión el experimento, se muestra que la gran heterogeneidad que se encuentra en
el tiempo de respuesta es el responsable de la lenta dinámica de la información a nivel
colectivo. (Iribarren, 2009).

Propuesta

Potencialmente, la difusión de información en las redes sociales puede ser muy


eficiente y la información puede llegar a un gran número de personas en un período
muy corto de tiempo. Sin embargo, poco se sabe acerca de los patrones de difusión de
información en los medios sociales y cómo el comportamiento de información en
línea puede haber cambiado.
Es por esto que en la presente investigación en desarrollo se propone estudiar los
cambios en la descripción de recursos “Links” publicados en Twitter, analizando la
difusión de la información, en esta red social, a través del cambio en hashtags,
menciones, y palabras. Con este estudio se pretende diseñar e implementar un
algoritmo que determine los cambios, para así poder realizar un estudio real de los
mismos.

4 Resultados Esperados
Los resultados que se esperan obtener son el diseño y la implementación de un
algoritmo que permita determinar los cambios en la descripción de los recursos
“links” de twitter, consiguiendo resultados que faciliten el análisis de la difusión de
información en esta red social. Para culminar con un estudio real de los cambios que
se han dado.

Bibliografía
Twitter. (2013). Obtenido de http://www.twitter.com/
Burply. (s.f.). Obtenido de http://es.burply.com/hipertexto/url-acortamiento/tinyurl-
312998.html


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Carter, S., Tsagkias, M., & Weerkamp, W. (2011). Twitter hashtags: Joint
Translation and Clustering. Obtenido de
http://www.websci11.org/fileadmin/websci/Posters/125_paper.pdf
Cha, M., Haddadi, H., Benevenuto, F., & Gummadi, K. (s.f.). Measuring User
Influence in Twitter: The Million Follower Fallacy. Obtenido de Max Planck
Institute for Software Systems (MPI-SWS), Germany; Royal Veterinary
College, University of London, United Kingdom;CS Dept., Federal
University of Minas Gerais (UFMG), Brazil:
http://www.google.com.ec/url?sa=t&rct=j&q=measuring%20user%20influe
nce%20in%20twitter%3A%20the%20million%20follower%20fallacy&sour
ce=web&cd=1&ved=0CC8QFjAA&url=http%3A%2F%2Fwww.aaai.org%2
Focs%2Findex.php%2FICWSM%2FICWSM10%2Fpaper%2Fdownload%2
F1538%2F1826&
Collado C, E. (2011). Máster universitario de Sociedad de la Información y el
Conocimiento. Obtenido de http://eduangi.com/wp-
content/uploads/2011/07/El-microblogging-en-el-periodismo-
espa%C3%B1ol.pdf
De la Rosa Troyano, F. (. (s.f.). Sistemas de Inteligencia Web: Análisis de Redes
Sociales. Obtenido de
http://www.lsi.us.es/~ffrosat/publicaciones/Tesis.2011.v75.vf.pdf
iLifebelt. (2013). Estudio Redes Sociales Centroamérica 2013. Obtenido de II Estudio
de las Redes Sociales en América Central:
http://octavioislas.files.wordpress.com/2013/08/redes-sociales-
centroamerica-2013.pdf
Iribarren, J. (17 de Julio de 2009). Impact of Human Activity Patterns on the
Dynamics of Information Diffusion. Obtenido de IBM Corporation, ibm.com
e-Relationship Marketing Europe, 28002 Madrid, Spain:
http://prl.aps.org/abstract/PRL/v103/i3/e038702
Orihuela, J. (s.f.). Profesor en la Facultad de Comunicación de la Universidad de
Navarra y autor del blog eCuaderno. Obtenido de
http://www.virtualogos.net/portal/virtual-community/virtual-
teens/pliteraria/147-twitter-como-medio-de-comunicacion.html
Orta, C., Pardo, F., & Salas, J. (s.f.). Análisis de Redes de Influencia en Twitter.
Obtenido de
http://www.google.com.ec/url?sa=t&rct=j&q=an%C3%A1lisis%20de%20re
des%20de%20influencia%20en%20twitter&source=web&cd=1&ved=0CDs
QFjAA&url=http%3A%2F%2Fwww.redesymediossociales.es%2Fdescarga.
php%3Ffile%3DAnalisis%2520de%2520influencia%2520en%2520Twitter.p
df&
Ponce, I. (17 de Abril de 2012). (17/4/2012): “ Monográfico: Redes Sociales”.
Observatorio Tecnológico NIPO:820-10-289-9. Obtenido de
http://recursostic.educacion.es/observatorio/web/es/internet/web-20/1043-
redes-sociales
Romero, D., Meeder, B., & Kleinberg, J. (Junio de 2011). "Differences in the
Mechanics of Information Diffusion Across Topics: Idioms, Political
Hashtags, and Complex Contagion on Twitter". Obtenido de (ed.)


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

International World Wide Web Conference Committee (IW3C2).:


http://www.cs.cornell.edu/home/kleinber/www11-hashtags.pdf
Twitter. (2013). El glosario de Twitter. Obtenido de
https://support.twitter.com/articles/352810-el-glosario-de-twitter#
Ugarte, D. d. (s.f.). Breve Historia del análisis de redes sociales. Obtenido de
http://lasindias.com/gomi/historia_del_analisis_de_redes_sociales.pdf
Weng, L., Menczer, F., & Ahn, Y.-Y. (28 de August de 2013). Virality Prediction and
Community Structure in Social Networks. Obtenido de Center for Complex
Networks and Systems Research, School of Informatics and Computing,
Indiana University, Bloomington, IN 47408, USA.:
http://www.nature.com/srep/2013/130828/srep02522/pdf/srep02522.pdf
Weng, L., Ratkiewicz, J., Perra, N., Gonçalves, B., Castillo, C., Bonchi, F., y otros.
(20 de Junio de 2013). The Role of Information Diffusion. Obtenido de
http://arxiv.org/pdf/1302.6276v2.pdf
Wikipedia. (s.f.). Wikipedia la enciclopedia libre. Obtenido de Definición de texto:
http://es.wikipedia.org/wiki/Texto


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Mejora del proceso de producción mediante el


desarrollo e implementación de un Interface Hombre
Máquina.

Ismael Calvo, José A. Medina1, Carmen de Pablos2, Luis Bengochea1,


1
Dpto. de Ciencias de la Computación -Universidad de Alcalá - Campus Universitario,
28871- Alcalá de Henares - Madrid
{icm13796, josea.medina, luis.bengochea }@uah.es
2
Dpto. de Economía de la Empresa - Universidad de Rey Juan Carlos
Campus de Vicálvaro 28032 Madrid
{ carmen.depablos}@urjc.es

Resumen. Este artículo se centra en el proceso de automatización del cuadro de


mando de una máquina llenadora de yogur de una planta industrial. La
automatización supone el diseño y desarrollo de un avanzado interfaz hombre-
máquina (HMI) sobre un brazo giratorio.
Su implementación facilita una mejora en la calidad del producto y el aumento
de la productividad en la línea de producción, al mismo tiempo que se le facilita
el trabajo a los operarios.
Para el desarrollo de la automatización de la máquina ha sido necesario el uso y
el manejo de un amplio abanico de herramientas y software de automatización
industrial, como el manejo de autómatas, terminales HMI, variadores de
frecuencia, comunicaciones, etc.
Palabras clave: HMI, automatización, mejora continua, ISO 9001, ISO 22000.

1 Introducción

El desarrollo de nuestro trabajo se sitúa en una planta industrial del sector lácteo,
dedicada a la fabricación de yogur, que dispone de una línea de producción para la
elaboración de yogures envasados en vaso de cristal.
El mercado del yogur, es uno de los más dinámicos dentro del sector lácteo. Se
encuentra dentro de un sector fragmentado debido a que existe gran diversidad de
competencia, por lo general del mismo producto. Existen multitud de factores que
pueden afectar al mercado del yogur, destacando factores naturales, demográficos,
económicos o políticos, los cuales por regla general se encuentran en constante
cambio [1].
En los últimos años, según demuestran los estudios de mercados, debido a las
dificultades económicas y la situación actual, los usuarios a la hora de comprar
alimentos se decantan más hacia las marcas blancas. El mercado del yogur es un claro
ejemplo en el que debido al consumo cada vez mayor de marcas blancas, existe una
mayor demanda y por consiguiente una mayor competencia en los productos.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Por otro lado, la gestión empresarial se basa principalmente en obtener un producto


de buena calidad a un precio competitivo, con el fin de obtener clientes que se
decanten por este producto.
Además tenemos que tener en cuenta que los sistemas productivos se quedan
obsoletos y la maquinaria sufre un desgaste debido a su utilización por lo se hace
necesario actualizarla con el fin de mantener los niveles de calidad y producción.
Por ello el objetivo de este trabajo se ha centrado en analizar el proceso de
fabricación con el fin de mejorar las condiciones de trabajo del personal, optimizar el
funcionamiento de la máquina y simplificar los trabajos de mantenimiento, a través
del desarrollo de un Interface HMI, obteniendo como resultado un aumento de la
productividad de la línea y una reducción de los costes de fabricación.

2 Metodología y Materiales

Como ya hemos visto uno de los objetivos del proyecto, al desarrollar esta nueva
automatización es conseguir una reducción considerable de los costes de producción,
con lo que existe una previsión de amortización a corto plazo del coste del proyecto.
La solución más eficaz que se hemos encontrado es adaptar todo el cuadro de
mando sobre una pantalla táctil (HMI) como en todas las máquinas de última
generación. Esta pantalla y podríamos disponer de los mandos y de toda la
información.
La incorporación de esta pantalla, que iría soportada sobre un brazo giratorio y que
sería la encargada de gobernar el autómata, optimizaría el funcionamiento de la
máquina, ya que se mostraría toda la información: estado, fallos, emergencias, puertas
abiertas, velocidad, contador de vasos, niveles de la tolva, falta de vasos, etc.
Con todo desaparecerían todos los pilotos luminosos del cuadro, de difícil
visualización y con riesgo mal funcionamiento, por ejemplo debido a una bombilla
fundida. Cuando se produjera por ejemplo un fallo, la máquina se pararía y éste sería
mostrado en la pantalla para después de solucionar el problema resetearlo y poder
arrancar de nuevo.
Además daremos cumplimento a la norma ISO 9001 [2], ya que la empresa debe
cumplir con los requisitos y mejorar la eficacia del sistema, así como establecer
procesos de seguimiento y medición que aseguren la conformidad del producto por
parte del consumidor. Para ello utilizaremos los equipos de medición necesarios, en
nuestro caso detectaremos la posible rotura de un vaso dentro de la máquina, un vaso
sin la tapa o un vaso bajo de peso.
Mediante la instalación de nuestro nuevo interfaz conseguiremos cumplir gran
parte de los requisitos del Sistema de Gestión de Seguridad Alimentaria (ISO-22000)
[3] [4] que son: reforzar la seguridad alimentaria, fomentar la cooperación de todas
las partes involucradas en la cadena alimentaria, asegurar la protección del
consumidor y fortalecer su confianza, establecer los “elementos claves” para los
sistemas de gestión y mejorar el rendimiento de la cadena de suministro para reducir
los costes.
Para un correcto desarrollo del Interface hemos tenido que estudiar todos los
aspectos de prevención de riesgos laborales [10] y sobre todo los aspectos


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

ergonómicos [9] con el fin de hacerlo más confortable, de más fácil uso para la
actividad a desarrollar, abarcando los problemas del medio ambiente, así como
mejorar la calidad de vida del trabajador en su ambiente de trabajo, aumentando los
valores de seguridad, salud y satisfacción por la labor realizada.
Por ello a la hora de diseñar la pantalla de mando e información hemos tenido en
cuenta los siguientes aspectos:
• La pantalla deberá proporcionar una información clara e inequívoca.
• Se deberá prestar atención especial a la intensidad, duración de la señal,
color, forma, tamaño, y contraste respecto al fondo visual o acústico.
Además, debemos evitar proporcionar información innecesaria.
El cuadro de mando tiene que ser accesible desde ambos lados de la máquina
mediante un brazo móvil y orientable. La localización del cuadro ha de tener un
espacio suficiente que permita los movimientos necesarios para realizar la tarea,
evitando posturas indeseadas.
A continuación vemos los puntos más importantes a tener en cuenta a la hora de
posicionar el cuadro de mando:
• Altura de la cabeza: debe haber espacio suficiente para los trabajadores más
altos. Los objetos a contemplar deben estar a la altura de los ojos o un poco
más abajo, ya que se tiende a mirar un poco hacia abajo.
• Altura de los hombros: el panel de control debe estar situado entre cintura y
hombros, evitando por encima de los hombros objetos o controles que se
utilicen a menudo.
• Alcance de los brazos: los objetos deben estar situados lo más cerca posible
del alcance del brazo para evitar extenderlo demasiado, y colocados de
forma que los trabajadores más altos no tengan que encorvarse para
alcanzarlos. El material y herramientas de uso frecuente debe mantenerse
cerca del cuerpo y frente a él.

3 Resultados

En una automatización, la etapa de la interfaz hombre-máquina es una de las más


críticas, ya que en esta fase de desarrollo es donde ocurren la mayoría de los errores
humanos, razón por la cual es fundamental realizar un estudio detallado del diseño.
Actualmente nuestro sistema está compuesto por indicadores y comandos, tales
como luces, pilotos, indicadores digitales y análogos, registradores, pulsadores,
selectores y otros que se interconectan con la máquina o con el proceso, que serán
sustituidos en su totalidad por la pantalla interfaz.
La máquina dispone de un autómata Telemecanique (actualmente Schneider)
modelo Tsx Micro 3721, por lo que la pantalla elegida debe ser compatible con el
autómata para no ser necesaria su sustitución.
El terminal debe ser de grandes dimensiones para poder incorporar la mayoría de
las funciones sobre un mismo panel, sin necesidad de ir navegando continuamente por
subpaneles, lo que complicaría el funcionamiento para el operario. Por ello la pantalla
elegida es un terminal Magelis modelo XBTGT7340 de 15 pulgadas también de la
marca Schneider.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Se debe incorporar a la máquina un soporte en acero inoxidable para la sujeción del


brazo giratorio. Sobre el brazo giratorio va el cuadro con la pantalla y los pulsadores
de marcha, paro y seta de emergencia.
El programa del autómata ha sido totalmente modificado, se han reorganizado
todas las entradas y salidas debido a que se suprimen gran parte de ellas (todos los
pulsadores y selectores, y todos los indicadores luminosos), además ha sido necesario
crear el programa del terminal Magelis, con sus correspondientes paneles.
Debido ha este proceso de reubicación de todas las entradas y salidas, ha sido
necesario sanear todo el cableado del cuadro, eliminando todos los elementos que ya
no vayan a ser utilizados.
Para desarrollar nuestra aplicación hemos tenido en cuenta el cumplimiento de las
normas de calidad tratadas, la ergonomía y las normativas de seguridad presentes en
la empresa.
Se realizaron varios diseños previos, teniendo en cuenta las necesidades de la
empresa y del operario, los cuales se fueron modificando hasta llegar al diseño final.
Se estudiaron y analizaron las pantallas y mandos de otras máquinas dentro de la
planta para poder buscar una similitud que favoreciera la adaptación por parte del
operario.
Para el desarrollo y la edición de nuestra aplicación hemos utilizado el software
correspondiente a la pantalla elegida y al autómata de la máquina y que comentamos
seguidamente:
Vijeo Designer es el software para la edición, configuración y programación de los
paneles HMI de Magelis [5][6].

Figura 2. Vijeo Designer v5.1


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Para el diseño y puesta en marcha de las aplicaciones para autómatas Micro y


Premium de Telemecanique (Schneider) utilizaremos el programa PL7. Existen tres
variantes de PL7: el Micro, Junior y el Pro. En nuestro caso utilizaremos el PL7
Junior para llevar a cabo las modificaciones en nuestro autómata [7][8].
En PL7 podemos utilizar cuatro lenguajes de programación: lenguaje de contactos,
lista de instrucciones, literal estructurado y Grafcet. El código del programa del
autómata de la máquina está realizado en lenguaje de contactos, y será este lenguaje el
que utilicemos para llevar a cabo nuestras modificaciones.

Figura 3. PL7 Junior v4.5

Para visualizar la temperatura y el nivel de la tolva de producto, en forma de


animación, ha sido necesaria la incorporación de una tarjeta de entradas analógicas al
autómata. A esta tarjeta conectaremos la sonda de temperatura PT-100 que
originalmente iba conectada a un controlador-indicador de temperatura y
conectaremos en serie el nivel continuo (4..20 mA) que manda la señal analógica a la
zona de proceso, mediante un separador de señal con aislamiento galvánico.

4 Conclusiones

Debido a la realización de este proyecto han desaparecido todos los pilotos luminosos
del cuadro para la visualización de alarmas, fallos, modos de funcionamiento, etc., lo
que supone una importante mejora en la línea de fabricación.
Se ha conseguido satisfacer las necesidades de fabricación de la empresa
alcanzando los objetivos que nos hemos fijado al inicio de éste, tanto en la adaptación


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

a las normas de calidad y seguridad, como en las modificaciones introducidas para


mejorar las condiciones de trabajo.
Aunque inicialmente se produjera una reticencia al cambio por parte de los
operarios en el desarrollo del nuevo interface HMI, su puesta en marcha nos permitió
observar el grado de adaptación al nuevo sistema y su posterior colaboración para su
mejora.
En la actualidad, debido a las mejoras introducidas en el proceso de fabricación, se
ha permitido a los operarios trabajar de una forma más relajada gracias a la seguridad
de disponer de toda la información, no como anteriormente, que tenían que estar
pendientes de distintos indicadores de proceso, como por ejemplo del número de
vasos realizados.
Es importante destacar la gestión que se ha realizado para la puesta en marcha del
sistema. Con el fin de no disminuir la fabricación se han optimizado las paradas de
producción de la máquina para ir probando todos los avances que íbamos haciendo.
La principal limitación que nos surgió fue la actualización del contador de vasos,
ya que al ir tan rápido la máquina no daba tiempo a intercambiar la información entre
el autómata y la pantalla. Finalmente se solucinó el problema haciendo una
actualización periódica cada quinientos milisegundos del número de vasos leidos,
algo que podía suponer de un error de como máximo cuatro vasos llenos en una hora,
algo insignificante en este tipo de procesos.

Bibliografía

[1] BuenasTareas.com, Análisis del Mercado del Yogur, Recuperado 04, 2011, Disponible
en:http://www.buenastareas.com/ensayos/Analisis-Del-Mercado-Del-Yogurt/1916822.html
(2013)
[2] AENOR, Sistemas de gestión de la calidad. Requisitos, ISO 9001. Madrid: AENOR 2008.
[3] Palú García, Eduardo, ISO 22000 Product Manager, SGS ICS Ibérica, 17/11/2005.
[4] AENOR, Sistemas de Gestión de la inocuidad de los alimentos, ISO 22000. Madrid:
AENOR 2005.
[5] Instituto Schneider Electric de formación, Manual de formación Vijeo Designer, 2010.
[6] Ayuda Software Vijeo Designer V5.1.0.272, Schneider Electric Copyright © 2003 – 2010.
[7] Centro de Formación Técnica Schneider Electric Argentina, Configuración del Modicon
TSX Micro, 2001.
[8] Ayuda Software PL7 Junior V4.5 Schneider Automation S.A.S Copyright © 1996 – 2004.
[9] Távara Fartán, M. Ángel, Ergonomía: Aplicaciones y Sistema Hombre – Máquina,
Disponible en: http://www.monografias.com/trabajos73/ergonomia-aplicaciones-sistema-
hombre-maquina/ergonomia-aplicaciones-sistema-hombre-maquina.shtml (2013)
[10]Ley 31/1995, de 8 de noviembre, de Prevención de Riesgos Laborales,
http://www.insht.es/InshtWeb/Contenidos/Normativa/TextosLegales/LeyPrevencion/PDFs/l
eydeprevencionderiesgoslaborales.pdf (Enero 2013)


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Curso Superior de Tecnologia em Banco de Dados na


modalidade de Educação a Distância:
Reflexões acerca da Formação Docente

Joice Nunes Lanzarini, 1, Felipe Gustsack1, Jacques Nelson Corleta Schreiber2


Viviane Müller Lawisch Alves2,
1
Universidade de Santa Cruz do Sul, Mestrado em Educação, Santa Cruz do Sul - RS,
Brasil.
2
Universidade de Santa Cruz do Sul, Mestrado em Sistemas e Processos Industriais, Santa
Cruz do Sul - RS,Brasil.

{joice, fegus, jacques, vmuller}@unisc.br

Resumo. Partindo do Projeto Pedagógico (PPC) do Curso Superior de


Tecnologia (CST) em Banco de Dados da Universidade de Santa Cruz do Sul a
ser ofertado, a partir de 2014, na modalidade de Educação a Distância - EaD e
apoiados por referenciais teóricos que problematizam a formação de professores
para o trabalho com as tecnologias e os desafios apresentados aos professores
universitários diante de novos formatos e modalidades de cursos superiores,
dedicamo-nos, nesse artigo, a refletir acerca desses múltiplos desafios
relacionados à formação docente com os quais nos depararemos ao longo do
processo de implantação desse curso. Tal reflexão é fundamental para orientar o
planejamento de ações de formação para professores que pretendem atuar em
cursos na modalidade EAD.

Palavras-Chaves: Curso Superior de Tecnologia em Banco de Dados,


Educação a Distância, Formação Docente.

1 Apresentação

Se, historicamente, a expansão da oferta de cursos superiores no Brasil esteve focada


em cursos de bacharelado e na modalidade de ensino presencial, hoje, diante da
necessidade de rápida resposta para formação de profissionais, e com a evolução das
novas tecnologias, novos formatos de cursos têm sido adotados – os cursos na
modalidade de educação a distância e os cursos de menor duração voltados para a
formação profissionalizante de nível superior chamados Cursos Superiores de
Tecnologia - CST
Abertos a candidatos que tenham concluído ensino médio ou equivalente, os CST
variam de 1600 a 2000 horas de duração, conferem o grau de Tecnólogo e têm como
objetivo atender uma demanda específica do mercado de trabalho. Assim como os
Bacharelados e Licenciaturas, os CST conferem diploma de graduação, possibilitando


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

a continuidade dos estudos em cursos de pós-graduação, sejam eles Lato ou Stricto


Sensu.
Os números do Censo da Educação Superior de 2011 mostram que esse novo
“grau acadêmico” – tecnólogo, tem se fortalecido ano após ano. Sua aceitação é
percebida a medida que comparamos o crescimento de suas matrículas com as
matrículas nos cursos ditos tradicionais, bacharelados e licenciatura. No último ano,
enquanto os bacharelados cresceram 6,4% e as licenciaturas 0,1%, os cursos
superiores de tecnologia cresceram 11,4% e já representam 18% dos cursos ofertados
no país [1].
Já a EaD, prevista na legislação brasileira no art. 80 da Lei no 9.394, de 20 de
dezembro de 1996 só foi regulamentada na legislação brasileira em 2005 com o
Decreto n º 5622. Para termos uma ideia do que isso representou na educação
brasileira, somente entre os anos de 2003 e 2006 a oferta de cursos a distância cresceu
571%. De 2000 para 2010, o número de matrículas passou de 5.287 para 930.179. Em
2011, eram 992.927 matrículas em cursos de graduação a distância, ou seja, 17,27%
das matrículas no ensino superior. Se compararmos os dados de 2008 a 2010
apresentados pelo Censo EAD.BR: Relatório Analítico da Aprendizagem à Distância
no Brasil de 2009 [2] e 2011 [3] veremos que a oferta de cursos a distância cresceu
30% enquanto que a oferta de cursos presencial cresceu apenas 12,5%.
Todas essas mudanças no contexto da oferta de cursos superiores têm apresentado,
aos professores universitários, novos desafios.
Se antes disso o exercício da profissão docente já lhe exigia uma sólida formação,
não apenas nos conteúdos científicos relacionados às disciplinas, mas também aos
aspectos didáticos, agora é preciso, que o professor incorpore aos conhecimentos
tradicionais (capacidade de ensino e de pesquisa) outros conhecimentos que vão desde
a habilidade para trabalhar em equipe e coordenar projetos e habilidades de
assessoramento, até a familiaridade com o amplo campo de métodos pedagógicos [4],
inclusive mediados pelas novas Tecnologias da Informação e da Comunicação – TIC.
Nesse trabalho, apresentaremos, ainda que de forma breve, algumas reflexões
acerca dos desafios de formação docente identificados ao pensarmos a arquitetura
pedagógica, administrativa e tecnológica para atuação no Curso Superior de
Tecnologia em Banco de Dados – Modalidade EAD a ser ofertado a partir de 2014
pela Universidade de Santa Cruz do Sul - UNISC

2 O Curso Superior de Tecnologia em Banco de Dados –


Modalidade EAD

O Curso Superior de Tecnologia em Banco de Dados da Universidade de Santa Cruz


do Sul – Modalidade EAD, a ser ofertado a partir de 2014, terá duração de 2010 horas
acontecerá organizado em 6 módulos semestrais. Foi pensado para concluintes do
Ensino Médio que queiram adquirir sólidos conhecimentos na área de Banco de
Dados e profissionais de Tecnologia da Informação - TI que buscam atualização ou
aperfeiçoamento na área de Banco de Dados, nas suas mais diversas áreas. Também
foi pensado para atender àqueles profissionais com pouco tempo para se deslocar até


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

ambientes de estudo presenciais e que necessitam compatibilizar o estudo com


demandas de trabalho ou família [5].
Esse curso formará profissionais aptos para analisar as demandas de banco de
dados das organizações, levantar os requisitos de sistema, propor soluções para o
desenvolvimento de sistemas adequados à necessidade do negócio, dimensionar a
infraestrutura necessária para criar e implementar Banco de Dados distribuídos ou
centralizados, identificar e empregar técnicas de desenvolvimento de software de
qualidade para a solução de problemas em Banco de Dados, trabalhar com diferentes
plataformas de Banco de Dados, analisar sistemas, modelar dados e programar
computadores.
As aulas acontecerão totalmente a distância e, para tanto, a metodologia pensada
para esse curso ancora-se no desenvolvimento planejado de materiais e recursos
mediadores, no uso das mais modernas Tecnologias de Informação e Comunicação -
TIC. Assim, atendemos ao Decreto nº 5.622, de dezembro de 2005 que conceitua a
Educação a Distância no Brasil como uma modalidade educacional na qual a
mediação didático-pedagógica nos processos de ensino e aprendizagem ocorre com a
utilização de meios e tecnologias de informação e comunicação, com estudantes e
professores desenvolvendo atividades em lugares ou tempos diversos.[6]
A produção de materiais bem elaborados, mais auto-explicativos, com mais
desdobramentos (links, textos de apoio, glossário, atividades...) é importante para
suprir a menor disponibilidade ao vivo do professor [7] e está proposto na arquitetura
pedagógica deste curso. Para dar conta desse trabalho a Instituição conta com uma
equipe interdisciplinar, com pessoas das áreas técnicas e pedagógica, que trabalham
juntas, cumprir prazos e dar contribuições significativas.
As TIC também constituem um aspecto fundamental para garantir a qualidade
deste curso. Por meio das TIC há outras formas de aprendizagem que proporcionam
maior interatividade e possibilidades de cooperação e promoção da autonomia,
resultando em um conceito ampliado de cognição.
O trabalho com as tecnologias, pela ótica da construção do conhecimento,
possibilita a emergência de processos interativos, reflexivos e colaborativos
fundamentados por sementes epistemológicas estruturantes do Paradigma
Educacional Emergente, Ecossistêmico ou Complexo. Os princípios e valores desse
novo paradigma podem ser indutores de práticas pedagógicas mais dinâmicas,
integradoras, complexas e holísticas, que requerem, por sua vez, maior entendimento
conceitual em relação ao conhecimento, à aprendizagem e à complexidade envolvida
nos processos educacionais [8].
Cabe lembrar que se as tecnologias tradicionais serviam como instrumentos para
aumentar o alcance dos sentidos (braço, visão, movimento etc.), as novas tecnologias
da informação e da comunicação ampliam o potencial cognitivo do ser humano (seu
cérebro/mente) e possibilitam mixagens cognitivas complexas e cooperativas[9]. Elas
já não são meros instrumentos no sentido técnico tradicional, mas feixes de
propriedades ativas. São algo tecnologicamente novo e diferente.
Claro que não podemos ser ingênuos apreciadores da tecnologia [10] e pensar que
a introdução das tecnologias no meio educacional é capaz, por si mesma, de
possibilitar informação, comunicação, interação, colaboração e em consequência
disso tudo, promover a aprendizagem [11].


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

É possível, hoje, colocar diferentes pessoas em contato, ao mesmo tempo,


rompendo barreiras geográficas e temporais. Entretanto, os modos de interação e de
colaboração que serão estabelecidos entre essas pessoas, assim como o que elas vão
fazer com essa possibilidade de contato, não são tão óbvios e não são pré-
determinados ou mesmo controláveis; vão depender de quem está nos nós da rede que
será tecida entre elas [11].
A metodologia proposta para o Curso Superior de Tecnologia em Banco de Dados
contempla o uso de modernas tecnologias e sistemas desenvolvidos para atender aos
propósitos Institucionais para a modalidade EaD. No entanto, é a ação dos diferentes
atores do processo educativo, entre eles o professor, que irá determinar o
aproveitamento do potencial dos recursos mediadores e das tecnologias no
desenvolvimento pleno dos objetivos pedagógicos do curso.

3 Os Professores e a Formação para Ensinar e Aprender


Mediados pelas TIC

Um dos motivos encontrados para justificar a resistência que os professores têm em


relação ao trabalho com a tecnologia é a insegurança pela falta de domínio sobre elas.
Diante disso, preferem manter-se distantes da tecnologia e proferir discursos
contrários à ela. Por conta disso, a maioria dos cursos de formação de professores
para o trabalho com as tecnologias tem seu foco voltado para a instrumentalização
dos professores. No caso dos cursos a distância, estes cursos focam seus programas no
uso das ferramentas disponíveis no Ambiente Virtual de Aprendizagem – AVA.
Essa resistência não é percebida no corpo docente previsto para atuar no Curso
Superior de Tecnologia em Banco de Dados – Modalidade EAD, uma vez que esse
grupo de professores é formado, basicamente, por professores graduados em Ciência
da Computação ou equivalente, com Mestrado e Doutorado na mesma área.
Esse aspecto pode levar-nos a concluir, de forma equivocada, que essa
característica é garantia de sucesso no processo educativo mediado pelas tecnologias e
que dispensaria esse grupo da participação em programas de formação de professores
específicos para a modalidade EaD.
Pensar dessa forma é um equívoco! Não podemos esquecer que esses professores,
salvo algumas exceções, possuem toda a sua experiência docente construída em
cursos presenciais.
O professor, independente da sua formação, ao aceitar trabalhar na modalidade a
distância, enfrenta uma série de desafios acrescidos dos que já enfrenta no ensino
presencial. Ele se arrisca em um ambiente novo no processo de aprendizagem, mas
tem como referência a prática e a realidade do ensino presencial, em que está
relativamente à vontade, pois ali tem parâmetros e história [12]. Suas referências
foram construídas em um modelo presencial, desde sua vivência com os alunos,
passando pelo curso de formação como professor até sua prática docente. E essa
bagagem não pode ser ignorada ao olhar o novo, já que não podemos correr o risco
deste professor achar que EaD é outra coisa que não a própria educação.
Essa bagagem pode estar repleta de boas práticas docentes, que vivenciem, de
fato, os novos saberes, dentre eles, o saber planejar, saber pesquisar, estabelecer


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

estratégias para formar grupos, para resolver problemas, etc. Ainda que sua
experiência presencial tenha-o tornado capaz de compreender que a competência
profissional deve ser medida muito mais pela sua capacidade de estabelecer relações
com seus alunos e seus pares, pelo exercício da liderança profissional e pela atuação
comunitária, do que na sua capacidade de “passar conteúdos” [13], diante do desafio
de desenvolver seu trabalho em um outro ambiente de aprendizagem, esse professor
pode se deparar com algumas dificuldades que não se limitam às questões
tecnológicas.
Mesmo os professores com domínio das questões tecnológicas, como é o caso
estudado, quando adotam uma ou outra tecnologia em suas aulas, as “utilizam” para
transmitir conteúdo: como apoio à exposição oral ou realizar demonstrações que
permitam simular determinados cenários. Enfim, continuam perpetuando o velho
ensino influenciado por paradigmas positivistas, a partir de uma nova versão
tecnológica visualmente mais agradável.
O fato de integrar imagens, textos, sons, animação e mesmo a interligação de
informações em sequências não-lineares, como as atualmente utilizadas na multimídia
e hipermídia, não nos dá a garantia de boa qualidade pedagógica e de uma nova
abordagem educacional. Programas visualmente agradáveis, bonitos e até criativos,
podem continuar representando o paradigma instrucionista, ao colocar no recurso
tecnológico uma série de informações a ser repassada ao aluno. E assim,
continuávamos preservando e expandindo a velha forma com que fomos educados,
sem refletir sobre o significado de uma nova prática pedagógica utilizando esses
novos instrumentos[14],.
Não podemos simplesmente tentar adaptar esse professor a uma nova cultura de
trabalho. É preciso que se faça uma profunda revisão da maneira de ensinar e
aprender. Essa nova cultura exige compreender as tecnologias com uma concepção
que transcende a linearidade do processo educativo e que vê a educação como um
processo autopoiético, de fluxos e interconexões, um processo de criação, colaboração
e autonomia.
A forma como as novas tecnologias têm sido introduzidas na formação de
professores, na maioria das vezes, não tem a preocupação de construir um habitus em
relação à máquina e aos processos educacionais que são realizados em articulação
com ela[15]. Simplesmente saber utilizar o computador não é a solução para a
incorporação adequada das TIC nos processos de ensino e aprendizagem.
Diversos pesquisadores têm aprofundando seus estudos no que chamam de
“conhecimento tecno-pedagógico do conteúdo”, isso quer dizer que as tecnologias
devem integrar e dialogar tanto com o conteúdo que ensinam quanto com a didática e
pedagogia desse conteúdo. Para esses autores, o conhecimento para trabalhar com as
tecnologias envolvem quatro dimensões: o conhecimento tecnológico, o conhecimento
tecnológico do conteúdo, o conhecimento tecno-pedagógico e o conhecimento tecno-
pedagógico do conteúdo.
O conhecimento tecnológico é o conhecimento sobre os tipos de tecnologias
disponíveis e supõe no que se refere à formação do professor, a necessidade de
desenvolver habilidades para a gestão dessas tecnologias. No caso das tecnologias
digitais, supõem conhecer os sistemas operacionais, processadores de textos, planilhas
de cálculo, navegadores, e-mail. O conhecimento tecnológico do conteúdo está
relacionado com a forma como novas tecnologias transformam o conteúdo do qual o


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

professor é especialista. Refere-se a como o trabalho com a tecnologia pode ajudar a


resolver problemas ou a compreender melhor determinados conteúdos. Por exemplo:
como o Google Earth pode ajudar a compreender melhor um conteúdo de Geografia.
O conhecimento tecno-pedagógico está relacionado com o conhecimento sobre a
existência dos componentes e potencialidades diferente das tecnologias quando
aplicadas no ensino e na aprendizagem, por tanto, diz respeito a como o ensino muda
a partir do trabalho com a tecnologia. Se refere ao conhecimento acerca das
ferramentas para criar apresentações (mapas conceituais), confeccionar avaliações
(Hot-Potatoes), debates (fóruns), estratégias de investigação (WebQuests), etc.
Da intersecção destes conhecimentos surge o conhecimento tecno-pedagógico do
conteúdo. Esse conhecimento é a base para um bom ensino com as tecnologias e
requer uma compreensão de conceitos envolvendo as tecnologias, das técnicas
pedagógicas que aplicam as tecnologias de forma criativa para ensinar o conteúdo, do
conhecimento das dificuldades de aprendizagem e da forma como as tecnologias
podem ajudar a reduzir problemas que os estudantes encontram. Inclui também, o
conhecimento de ideias previas e teorias científicas dos estudantes e o conhecimento
de como as tecnologias podem contribuir para a construção de conhecimentos novos
a partir do conhecimento já existente.
Tudo acerca do que refletimos até este ponto pode ser considerado o primeiro
grande desafio da formação dos professores que atuarão no curso: compreender a
diferença entre usar as TIC e trabalhar pedagogicamente com elas explorando as suas
potencialidades para o processo educativo.
Um segundo desafio está relacionado à quebra as antigas estruturas de tempo e
espaço da docência. Não falamos aqui do distanciamento físico entre professores e
estudantes que, em princípio, deve ser reduzido pelo trabalho com as tecnologias.
Falamos, sim, do afastamento temporal entre planejamento e execução do processo de
ensino e de aprendizagem, isto é, do pensar e do fazer da prática docente.
Como os materiais precisam ser preparados com antecedência, os professores
autores (chamados de conteudistas em algumas instituições) nem sempre são aqueles
que farão a mediação do processo educativo quando da oferta da disciplina. Embora
pareça um aspecto de menor importância, não podemos esquecer que o material
didático na EaD assume papel mais importante do que as referências e os recursos de
apoio do presencial, pois ele carrega em si grande parte da comunicação que é
estabelecida entre professores e alunos e, mais do que isso, também da própria
estrutura do curso propriamente dito. Quer dizer que ele traz, já embutido, parte do
diálogo que antes se estabeleceria apenas na sala de aula [13]
Esse material traz, principalmente, as escolhas teóricas do professor autor, suas
ideologias e leituras de mundo, que nem sempre é compartilhada pelo professor que
fará a mediação da disciplina. Ao mediador, cabe levar em frente um diálogo por ele
não iniciado e, talvez, por ele não compartilhado [13].
Assim, deve fazer parte da formação de professores para EAD, o desenvolvimento
da capacidade de produzir materiais didáticos flexíveis (autor) e a capacidade de
adaptar esse material (mediador), através de textos ou hiperlinks com ideias
complementares ou até mesmo opostas, ampliando assim, as discussões acerca do
tema de estudo.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Um terceiro desafio está relacionado com o trabalho cooperativo na elaboração


dos materiais didáticos, no planejamento das aulas, nas metodologias, nos recursos
escolhidos e na execução do curso como um todo.
Com relação a esse aspecto, autores chamam a atenção para a importância da
superação do conflito entre professores e técnicos e a necessidade de buscar uma
aproximação desses campos, garantindo a especificidade de cada um deles e não a
substituição de um pelo outro ou a submissão de um ao outro [13]. Para os autores,
muitos professores tem dificuldade de compartilhar suas tarefas com outras pessoas,
abrir suas estratégias, planejar conjuntamente, delegando e dividindo
responsabilidades, não fazendo questão do controle e do poder do papel central.
Ao afirmar isso, os autores querem destacar que o trabalho do professor em um
curso a distância precisa ser compartilhado por uma série de profissionais - designers
instrucionais, equipes de produção de ambientes virtuais, de audiovisuais, de livros,
entre outros - inclusive no momento das aulas propriamente ditas, em que diversos
tutores que atuarão de forma integrada com o professor. O professor precisa
compreender que esse grupo de pessoas não é apenas uma equipe técnica de apoio o
professor detentor exclusivo do conhecimento e que a riqueza do processo está
justamente no fato de cada um ter seu papel que da harmonia do conjunto resulta o
sucesso do trabalho de todos.

4 Considerações Finais

O que propomos refletir nesse trabalho é que o professor, mesmo que tenha domínio
da tecnologia, como é o perfil dos professores previstos para atuarem no Curso
Superior de Tecnologia em Banco de Dados da Universidade de Santa Cruz do Sul,
precisa compreender que atuar em um curso a distância não é fazer a “velha”
educação de forma mais performática, com novos recursos. E que, mesmo que queira
fazer a educação transmissiva e centralizada com o uso de TIC, ele terá que se
confrontar com situações que provocarão, no mínimo, grande instabilidade.
É preciso compreender e aceitar que para atuar em um curso a distância é preciso
ressignificar o papel de docente diante das novas situações de trabalho impostas por
essa metodologia.
A capacidade de produzir materiais didáticos flexíveis, de executar um plano de
trabalho iniciado por outro professor e de continuar um diálogo começado por outro,
muitas vezes com ideias ou referenciais teóricos com os quais não compartilha, de
compartilhar tarefas e trabalhar cooperativamente com uma equipe formada por
diferentes profissionais que se complementam e principalmente, de compreender o
potencial dos recursos tecnológicos para, em conjunto, definir os objetivos
pedagógicos que devem orientá-lo, constituem os grandes desafios para qualquer
professor que venha a atuar na educação a distância.
Tendo refletido essas questões, cabe à unidade responsável pela gestão da
Educação a Distância na Universidade, pensar programas de formação de professores
para atuar, não somente no Curso Superior de Tecnologia em Banco de Dados, mas
em todos os cursos ofertados nessa modalidade.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Referências

1. Ministério da Educação: Censo da Educação Superior de 2010. Brasília (2011)


2. Associação Brasileira de Educação a Distância: Censo EAD.BR: Relatório Analítico da
Aprendizagem à Distância no Brasil de 2008. Pearson, São Paulo(2009)
3. Associação Brasileira de Educação a Distância: Censo EAD.BR: Relatório Analítico da
Aprendizagem à Distância no Brasil de 2010. Pearson, São Paulo (2011)
4. Zabalza, M.:O ensino universitário: seu cenário e seus protagonistas. Artmed, Porto
Alegre (2004)
5. Universidade de Santa Cruz do Sul: Projeto Pedagógico do Curso Superior de Tecnologia
em Banco de Dados. Pró-Reitoria de Graduação, Santa Cruz do Sul (2013)
6. Presidência da República do Brasil: Decreto n º 5622 de 19 de dezembro de 2005.
Brasília (2005), http://www.planalto.gov.br/ccivil_03/_Ato2004-
2006/2005/decreto/D5622.htm
7. Moran, J. M.: O que é um bom curso a distância? In: Boletim do Programa Salto para o
Futuro da TV Escola (2002),: http://www.eca.usp.br/moran/bom_curso.htm
8. Araujo, M.M.S.: O pensamento complexo: desafios emergentes para a educação on-line.
In: Revista Brasileira de Educação, v.12, n.36, set., pp. 515-551. Anped, Rio de Janeiro
(2007) http://www.scielo.br/pdf/rbedu/v12n36/a10v1236.pdf
9. Assmann, H.: Redes digitais e metamorfose do aprender. Vozes, Petrópolis (2005)
10. Freire, P.: Pedagogia da autonomia: saberes necessários à prática educativa. Paz e Terra,
Rio de Janeiro(1996)
11. Mamede-Neves, M. A.C., Duarte, R.: O contexto dos novos recursos tecnológicos de
informação e comunicação e a escola. In: Revista Educação e Sociedade, vol.29, n.104,
pp. 769-789. CEDE, Campinas (2008),
http://www.scielo.br/pdf/es/v29n104/a0729104.pdf
12. Lapa, A., Preto, N.L.: Educação a Distância e a precarização do trabalho docente. In: Em
Aberto, v.23, n.84, pp. 79-97, Brasília (2010)
13. Gadotti, M.: Boniteza de um sonho: Ensinar-e-aprender com sentido, p.14-15. Ed. Cortez,
São Paulo(2002)
14. Moraes, M.C.: O paradigma educacional emergente: implicações na formação do
professor e nas práticas pedagógicas. In:Em aberto, ano 16. n. 70, abr/jun. Brasília
(1996),
http://twingo.ucb.br/jspui/bitstream/10869/530/1/O%20Paradigma%20Educacional%20E
merg%C3%aante.pdf
15. Ramal, A.C.: Educação na Cibercultura: hipertextualidade, leitura, escrita e
aprendizagem. Artmed, Porto Alegre(2002).


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Análisis de redes sociales aplicados a un RDF Store

Pricila V. Quichimbo A1, Jorge López Vargas2

Departamento de Ciencias de la Computación


Universidad Técnica Particular de Loja
Loja (Ecuador)
1
E-mail: pricilavanessaqa@gmail.com
E-mail: jalopez2@utpl.edu.ec2

Resumen. En este trabajo se presenta la manera de realizar el análisis de redes


sociales utilizando Allegrograph, herramienta que permite almacenar tripletas
RDF (Resource Description Framework) y que a partir de la versión 3 imple-
menta métricas de SNA (Social Network Analysis). Además se presenta un vo-
cabulario para Twitter que permitirá expresar la información recolectada desde
esta red social en formato de la Web de datos.

Palabras clave: SNA, RDF, Allegrograph, métricas SNA, vocabulario para


Twitter

1 Introducción

Con el surgimiento de nuevas tecnologías basadas en la Web, ha permitido la interac-


ción y comunicación de las personas por medio del envío de mensajes, blogs, wikis
donde la colaboración y el intercambio de información juegan un papel importante,
además, los usuarios se convierten en creadores de contenido en una comunidad vir-
tual.

El término Web 2.0 comprende aquellos sitios web que facilitan el compartir in-
formación y representa la evolución de los sitios web estáticos donde los usuarios se
limitaban a la observación pasiva de contenidos hacia las aplicaciones web enfocadas
en el usuario final. En cuanto a los servicios de red social que ofrece la Web 2.0 se
encuentra Twitter que en la actualidad se ha convertido en la red social de microblog-
ging más popular, su rápido crecimiento radica en su simplicidad, permite a sus usua-
rios estar en contacto en tiempo real con personas de su interés a través de mensajes
breves a los que se les denomina tuits. Twitter maneja una gran cantidad de informa-
ción es por ello que se la ha utilizado para realizar el análisis de redes sociales.

El Análisis de Redes Sociales o en su traducción al inglés Social Network Analysis


(SNA), generalmente estudia la conducta de los actores (individuos, organizaciones,
naciones, comunidades, etc) a nivel micro, los patrones de relaciones (amistad, paren-
tesco, religión, afiliaciones, etc) a nivel macro y las interacciones entre los dos nive-
les, además, describe las estructuras relacionales que surgen cuando los actores cola-
boran, coinciden o se comunican a través de diferentes procesos o acuerdos, de esta
manera la estructura que emerge de la interrelación se traduce en la existencia de una
red social [1].


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

El Análisis de las Redes Sociales se ha desarrollado como herramienta que permi-


te predecir, comprender y gestionar los resultados de la acción humana, mediante el
uso de la medición y análisis de las estructuras sociales que surgen de las relaciones o
de la ocurrencia de determinados eventos entre actores sociales diversos.

Para realizar el Análisis de Redes Sociales se utiliza Allegrograph, aplicando mé-


tricas de SNA, entre las principales tenemos: closeness (cercanía), betweeness (inter-
mediación), cliques (grupos), degree centrality (grado de centralidad). Es importante
destacar que Allegrograph está diseñado para almacenar tripletas RDF (sujeto, predi-
cado, objeto), se la considera como una base de datos gráfica que considera cada dato
almacenado para tener cualquier número de relaciones, las mismas pueden ser vistas
como enlaces que en un conjunto forman una red o gráfico y está diseñado para con-
seguir altas velocidades en las operaciones de carga de tripletas.

En las secciones siguientes se va a tratar acerca del vocabulario de Twitter y el


proceso de migración a RDF, los store que soportan métricas de SNA y finalmente
como usar las métricas en Allegrograph.

2 Vocabulario de Twitter

Para realizar la implementación se utiliza vocabularios existentes tales como: DC,


SIOC, MOAT, GEO, GN, FOAF que se ajustan perfectamente a lo que queremos
modelar, además, permiten la descripción de los datos mediante el uso de sus propie-
dades para garantizar que puedan ser consumidos por aplicaciones web facilitando la
interoperabilidad. Además, se crea un vocabulario propio (TW) para modelar algunas
propiedades que se necesitan y no existen en los vocabularios.

Los vocabularios van a ser expresados usando RDFS (Resource Description Fra-
mework Schema) que es un lenguaje de propósito general para representar la informa-
ción de la web. Se basa en convertir las declaraciones de los recursos en expresiones
con la forma sujeto-predicado-objeto (conocidas como tripletas), donde el sujeto es el
recurso, el predicado es la relación y el objeto es el valor de la propiedad. En la tabla
1 se presenta una breve descripción de los mismos:

Tabla 1. Descripción de vocabularios utilizados.


VOCABULARIO DESCRIPCIÓN
DC Dulin Core.- se utiliza para describir una amplia gama de
recursos de sistemas de información que se encuentran en
la red.
FOAF Friend of a friend.- se utiliza para describir personas y sus
redes sociales de manera semántica.
GEO Proporciona un espacio de nombres para la representación
de longitud, latitud y otra información de los recursos
especialmente localizados [2].
GN Geo Names.- permite añadir información semántica geoes-
pacial como: nombre del país, código del país, etc.
MOAT Meaning of a tag.- proporciona un entorno de colabora-
ción para dar significado a las etiquetas utilizadas en
recursos.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

SIOC Semantically-Interlinked Online Communities.- propor-


ciona los principales conceptos y propiedades necesarias
para describir información de las comunidades en línea.
TW Vocabulario propio creado para representar información
como: contador de retweets, contador de favoritos, etc

En la tabla 2 se presenta la conceptualización del vocabulario utilizado para generar el


RDF, que incluye el tipo, especificación y descripción de cada una de las propiedades.

Tabla 2. Conceptualización del vocabulario para Twitter.


VOCABULARIO TIPO ESPECIFICACIÓN DESCRIPCIÓN
DC DataProperty dc:created Fecha de creación
DC DataProperty dc:language Lenguaje que se escribió el
tweet
FOAF DataProperty foaf:name Nombre del usuario
FOAF DataProperty foaf:nick Alias del usuario
GEO DataProperty geo:lat Latitud (ubicación)
GEO DataProperty geo:long Longitud (ubicación)
GN DataProperty gn:country_code Código del país
GN DataProperty gn:name Nombre del lugar
MOAT DataProperty moat:name Nombre del hashtag
SIOC ObjectProperty sioc:addressedTo A quién está dirigido el tweet
SIOC ObjectProperty sioc:has_creator Quién escribió el tweet
SIOC ObjectProperty sioc:linkss_to URL extraído de una conte-
nido
SIOC DataProperty sioc:content Contenido del tweet
SIOC DataProperty sioc:link URL de un documento
TW ObjectProperty tw:place Lugar donde se emitió el
tweet
TW DataProperty tw:country Nombre del país donde se
emitió el tweet
TW DataProperty tw:place_type Tipo de lugar (ej. ciudad)
TW DataProperty tw:street_address Dirección donde se emitió el
tweet
TW DataProperty tw:display_url URL que se muestra en el
tweet
TW DataProperty tw:extender_url URL extendido
TW DataProperty tw.source Código HTML del tweet
TW DataProperty tw:retweet_count Contador de retweets
TW DataProperty tw:favorite_count Contador de favoritos

En la Figura 1, se muestra el diagrama del vocabulario de Twitter utilizado para el


desarrollo del presente trabajo:


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Fig 1. Vocabulario de Twitter

La data de Twitter se encuentra alojada en una base de datos relacional MYSQL y


para la instanciación de los datos utiliza Jena, que es un framework java construido
para aplicaciones web semánticas y provee un ambiente programable para RDF,
RDFS, OWL, SPARQL.

Haciendo uso de las librerías que ofrece Jena se declara la variable OntModel y a
partir de ello se va construyendo el modelo en la aplicación, que consiste en la crea-
ción de clases, propiedades, dominios, rangos. Luego, se ejecuta operaciones sobre la
base de datos utilizando JDBC (Java Database Connectivity), para de esa manera
instanciar los datos y obtener las tripletas en formato RDF o N-Triples.

El resultado del proceso es un archivo RDF como el que se muestra a continua-


ción, cabe mencionar que se utiliza únicamente tweetId, content y language, debido a
que es un vocabulario bastante extenso y se muestra una parte del RDF como ejemplo:

-Tweet id: 8972


-Lenguaje (language): en
-Contenido (content): HTML5 Accessibility Chops: form control labeling by
@stevefaulkner - http://t.co/89qrrW1 #html5
-Hashtag (name): #html5

<rdf:RDF
xmlns:moat="http://moat-project.org/ns#"
xmlns="http://data.twitter.com/ontology#"
xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#"
xmlns:dc="http://purl.org/dc/terms/#"
xmlns:owl="http://www.w3.org/2002/07/owl#"
xmlns:geo="http://www.geonames.org/ontology#"
xmlns:xsd="http://www.w3.org/2001/XMLSchema#"
xmlns:locwd="http://purl.org/locwd/schema#"
xmlns:sioc="http://rdfs.org/sioc/ns#"

$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

xmlns:foaf="http://xmlns.com/foaf/0.1/#"
xmlns:rdfs="http://www.w3.org/2000/01/rdf-schema#"
xmlns:wgs84="http://www.w3.org/2003/01/geo/wgs84_pos#"
xmlns:tw="http://data.twitter/ontology#" >
<rdf:Description rdf:about="http://data.twitter.com/ontology#8927">
<locwd:language rdf:resource="http://data.twitter.com/ontology#en"/>
<sioc:content>@webaxe: HTML5 Accessibility Chops: form control labeling by
@stevefaulkner - http://t.co/89qrrW1 #html5</sioc:content>
<moat:name> #html5</ moat:name >
<rdf:type rdf:resource="http://data.twitter.com/ontology#TWEET"/>
</rdf:Description>
</rdf:RDF>

3 Social Network Analysis

Allegrograph permite realizar el análisis de redes sociales utilizando las librerías


(agraph para la Allegrov3, y agraph-4.11 para la Allegrov4), las métricas disponibles
hasta la última versión son las siguientes:

-Cliques
-Betweeness centrality
-Closeness centrality
-Degree centrality

Para hacer uso de las librerías se necesita un API de cliente en este caso se trabaja
con Jena, que ofrece acceso conveniente y eficiente a un servidor AllegroGraph desde
una aplicación basada en Java. Esta API proporciona métodos para crear, consultar y
actualizar los datos RDF, la gestión de los triples almacenados, consultas sparql, sna
[5].

Se presenta un ejemplo de la manera de invocar las métricas sna (degree centrality)


en Jena, en las dos versiones de Allegrograph, debido a que la versión 3 y la versión 4
trabajan diferente.

Tabla 3. Ejemplo de métricas SNA en Jena


ALLEGRO V3 ALLEGRO V4
Registrar namespaces
AllegroGraph ts = AGRepositoryConnection conn = new AGRe-
ags.renew("snametrics", AG- positoryConnection;
Paths.TRIPLE_STORES);
String ns = " http://example.org/";
ts.registerNamespace("ex", conn.setNamespace("ex", ns);
"http://example.org/");

Crear generadores
SNAExtension sna = List<URI> associates = new ArrayList<URI>;
ts.getSNAExtension();
Collections.addAll(associates);
Object[] parts = new Object[2];
parts[0] = "objects-of"; conn.registerSNAGenerator("associates", null,


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

parts[1] = "!ex:to"; null, associates, null);


sna.registerGenerator("to", parts);

Aplicar la métrica “Degree Centrality”

String[] group = queryString = "(select (?centrality)" +


{"!ex:a","!ex:b","!ex:c"}; "(ego-group !ex:knows 1 associates ?group)"
+ "(group-degree-centrality ?group associates
for (int i=0;i<group.length;i++) { ?centrality))";
double bc =
sna.getBetweennessCentrality(gro tupleQuery =
up[i], group, "to"); conn.prepareTupleQuery(AGQueryLanguage.
} PROLOG, queryString);

result = tupleQuery.evaluate();

Sparql (Simple Protocol and RDF Query Language), es un lenguaje de recupera-


ción o consulta de información en grafos RDF, además, es un formato de datos dirigi-
dos y etiquetados para representar información de la Web.

Su misión es devolver todas las tripletas y componentes solicitados basándose en


la comparación de una tripleta pasada como parámetro de la consulta con todas las
tripletas que componen el grafo rdf [6].

Se analiza la posibilidad de incluir métricas sna dentro de una consulta sparql de-
bido a que es un lenguaje estándar para todos las bases de datos que contiene tripletas
y obtener la información directamente desde el store sin necesidad de utilizar un clien-
te o framework para que realice el proceso de análisis.

4 Conclusiones

Reutilizar vocabularios garantiza que estos puedan ser consumidos por aplicaciones
web facilitando la interoperabilidad, además, la flexibilidad con la que se pueden
utilizar las propiedades y clases de diferentes vocabularios ontológicos para de esa
manera compartir conocimiento a través de una estructura estandarizada.

Allegrograph es una herramienta provee librerías que ayudan a realizar el análisis de


redes sociales, además, es un store que puede almacenar en su versión libre 5millones
de tripletas que soporta la visión de la Web Semántica en cuanto a escalabilidad, ope-
ratividad en las respuestas y distribución de información.

Al momento de realizar el análisis de redes sociales no es posible incluir métricas de


SNA en las consultas SPARQL, esto es un gran inconveniente debido a que en Alle-
grov4 se puede mostrar resultados mediante gráficos utilizando SPARQL y sería de
gran ayuda en la interpretación de resultados.

Cuando se instancia los datos en Jena, se debe tener especial cuidado al crear recursos
y literales; si se crea un recurso se puede relacionar con otros conceptos, en cambio, si
se crea un literal este representa un dato final, en otras palabras, sería el último nodo
de una grafo.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

5 Trabajos Futuros

Incluir las métricas de análisis de redes sociales en consultas SPARQL, para que en el
momento de ejecutar las mismas se muestre en forma de grafos en Allegrograph y de
esa manera ayudar a interpretar de mejor manera los resultados.

Las librerías de Allegro que se las ejecuta en cualquier cliente no tienen funciones
para presentar los resultados en grafos, es por ello que se podría crear un plugin o
agregar esas funcionalidades a las librerías en el caso de que no se desee trabajar con
consultas SPARQL.

Elaborar un aplicativo para generar RDF, en donde se realice el proceso de instancia-


ción de los datos, a partir de una base de datos relacional y de esa manera evitar con-
fusión cuando se crea, clases, instancias y propiedades.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Bibliografía

1. Sanz Menéndez, Luis. Análisis de redes sociales: o cómo representar las


estructuras sociales subyacentes. [En línea] julio de 2003.
http://digital.csic.es/bitstream/10261/1569/1/dt-0307.pdf.
2. Brickley , Dan. W3C Semantic Web Interest Group. [En línea]
http://www.w3.org/2003/01/geo/.
3. Velásquez, Alejandro y Aguilar, Norman. Manual introductorio al análisis de
redes sociales. [En línea] http://revista-
redes.rediris.es/webredes/talleres/Manual_ARS.pdf.
4. Velazco, Javier. Redes Sociales. [En línea] http://www.ciw.cl/wordpress/wp-
content/uploads/2008/08/capitulo9.pdf.
5. Franz, Inc. Allegrograph. [En línea]
http://www.franz.com/agraph/support/documentation/current/java-tutorial/jena-
tutorial-40.html.
6. Qaissi, Hicham. Lenguaje De Recuperación De Datos en la Web Semántica. [En
línea]
http://sinbad.dit.upm.es/docencia/doctorado/curso0809/HichamSPARQLrevCarmen.p
df.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

“Redes Neuronales Artificiales en la toma de decisiones


para la elección de una carrera universitaria en los
estudiantes de quinto año de secundaria en el Colegio
José Carlos Mariátegui de la ciudad de Huancayo”

Miguel Córdova Solís1, Cavero Gómez Jheyson1, Limaymanta Aguilar Jackeline1


Mucha Condori Jhim1
1
Facultad de Ingeniería. E.A.P. de Ingeniería Informática y de Sistemas
Universidad Continental 1980 Av. San Carlos (Huancayo)
{mcordova@continental.edu.pe, u2008203449@continental.edu.pe,
u2008201593@continental.edu.pe, u2008109895@continental.edu.pe }

Resumen. En este artículo se presenta los resultados obtenidos de la investi-


gación titulada “Redes neuronales artificiales en la toma de decisiones para la
elección de una carrera universitaria en los alumnos de quinto año de secunda-
ria en el colegio José Carlos Mariátegui de la ciudad de Huancayo”. El objeti-
vo general consistió en establecer la influencia que tiene el uso de las redes
neuronales artificiales para la orientación vocacional en los alumnos de
quinto año de secundaria. En la investigación se aplicó un cuestionario que
permitió conocer el grado de influencia que tiene el uso de las redes neurona-
les en la orientación vocacional en los alumnos para realizar la elección de una
escuela de nivel medio superior; así mismo permitió identificar otros factores
que influyen para elegir alguna alternativa, entre ellos, la familia. Los resulta-
dos arrojados por el instrumento, entre otros hallazgos, nos muestra que la la-
bor orientadora en este proceso, desarrolla acciones de información, encami-
nadas a que los alumnos conozcan sus opciones educativas después de la se-
cundaria.

Palabras clave: Redes Neuronales Artificiales, Orientación vocacional, toma


de decisión

1. Introducción

La preocupación por el desempeño de los alumnos de quinto año de secundaria,


que surge de los indicadores de rendimiento académico, ha llevado a las diversas
instituciones del país a investigar sobre la toma de decisiones para la elección de
una carrera universitaria. En este sentido, se ha realizado varios estudios con el ob-
jeto de aportar información que contribuya a esta toma de decisión, mediante la
ayuda de redes neuronales artificiales.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

El concepto de orientación vocacional, no sólo tiene que ver con los estudiantes del
quinto año de secundaria, sino también con aquellos estudiantes que tras iniciar una
carrera universitaria no se sienten satisfechos con dicha elección.

El proceso de la toma de decisión para la elección de una carrera universitaria, con-


lleva al desarrollo de ciertas pruebas vocacionales, en la que se busca que el estu-
diante se conozca a sí mismo, explore sus aficiones y se relacione con las diversas
áreas del conocimiento que le permitan definir un perfil profesional especifico.
Cuanto más temprana sea la etapa de la vida escolar en que se inicie este proceso,
más adecuados serán los resultados. Y, la precisión de esta toma de decisión será
con la ayuda de las redes neuronales artificiales como herramienta de este proceso.
[1]

Para ayudar a los estudiantes a tomar una decisión, los orientadores vocacionales
utilizan numerosas pruebas psicológicas y han diseñado diversos modelos formales
y no formales que miden la capacidad de decisión del individuo y evalúan su habi-
lidad en dicho proceso. No obstante, las medidas resultantes son exploratorias y li-
mitadas, y no tienen la última palabra: solo son instrumentos que ayudan a inter-
pretar la relación entre el estilo de vida y el entorno de vida del estudiante. [2]

Para esta investigación se seleccionó, diseño e implemento una técnica de aprendi-


zaje computacional (redes neuronales artificiales), que constituyen un buen método
para resolver este tipo de problemas para aquellas tareas de clasificación, identifi-
cación, diagnóstico o predicción en las cuales el balance datos/conocimiento se in-
clina hacia los datos y en las que, adicionalmente, puede haber la necesidad de
aprendizaje en el tiempo de ejecución y de cierta tolerancia a fallos. En estos casos,
las redes neuronales artificiales se adaptan dinámicamente reajustando constante-
mente los pesos de sus interconexiones. [3]

La utilización de las redes neuronales artificiales, permite apoyar el proceso de to-


mar decisiones en la elección de una carrera universitaria de un estudiante mediante
la calificación e interpretación de las pruebas vocacionales que son aplicadas al es-
tudiante.

2. Redes Neuronales Artificiales

Las redes neuronales artificiales (RNA) son modelos que intentan reproducir el com-
portamiento del cerebro. Como tal modelo, realiza una simplificación, averiguando
cuáles son los elementos relevantes del sistema, bien porque la cantidad de informa-
ción de que se dispone es excesiva o bien porque es redundante. Una elección adecua-
da de sus características, más una estructura conveniente, es el procedimiento conven-
cional utilizado para construir redes capaces de realizar determinada tarea.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Se conoce como capa o nivel a un conjunto de neuronas cuyas entradas provienen de


la misma fuente y cuyas salidas se dirigen al mismo destino. [4]

3. Orientación Vocacional

La orientación vocacional es una tarea de proyección preventiva asistencial, que en el


campo de la educación involucra una investigación psicosocial que busca relacionar el
factor educativo con el social. Esto en conjunto permite descubrir aptitudes y habili-
dades que definirán la vocación de una determinada persona. [5]

4. Desarrollo de la Investigación

El análisis del estudio fue dada en el colegio José Carlos Mariátegui de la ciudad de
Huancayo a los alumnos que cursan el quinto año de secundaria, para el desarrollo del
sistema de orientación vocacional en base a las redes neuronales se tuvo el siguiente
criterio:

Se consideró 10 entradas para el sistema que son los cursos más básicos de la secun-
daria como (matemática, literatura, economía, física, biología, química, dibujo, histo-
ria, Ed. cívica, Ciencia y ambiente), para poder así clasificar al alumno a que carrera
está más alineado de acuerdo a los cursos de su preferencia, los resultados obtenidos
se clasificaba en 4 salidas que coinciden con las facultades de la Universidad Conti-
nental como (Facultad de Ingeniería, Facultad de Ciencias de la Salud, Facultad de
Ciencias empresariales, Facultad de Ciencias sociales y humanas), a continuación
podrán observar la tabla 1 que se tuvo para la clasificación de entradas y salidas, las
cuales se entrenaron en el NeuroShell .


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Tabla 1. Cuadro de entradas y salidas

El sistema presentado a los alumnos del colegio José Carlos Mariátegui fue en una
interfaz de pregunta y respuesta por consola, el sistema permitió a que los alumnos
puedan ser orientados a que facultad podían postular de acuerdo a sus intereses por las
materias que llevaban en quinto año de secundaria. A continuación un ejemplo del
sistema que se presentó basado en lenguaje Python.

Modelo del sistema presentado a los alumnos del Colegio José Carlos Mariátegui, los
resultados coinciden con las salidas mencionadas en la tabla 1.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Ejemplo aplicado a un alumno de 5° de secundaria, los resultados coinciden con las


salidas mencionadas en la tabla 1.

5. Resultados

Para determinar la influencia de las redes neuronales en la toma de decisiones para la


elección de una carrera universitaria en los alumnos de 5° de secundaria, se aplicó una
encuesta a 150 alumnos del colegio José Carlos Mariátegui. La encuesta consistía en 5
preguntas que responderían después de mostrar la aplicación.

Figura 1. Resultado a la pregunta ¿Le pareció interesante la aplicación sobre la orientación


vocacional?

La plicación mostrada a los alumnos del quinto año de secundaria del colegio José
Carlos Mariategui despertó un interés para muchos de ellos con respecto a las redes
neuronales artificiales.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Figura 2. Resultado a la pregunta ¿De qué manera influyó para Ud. La aplicación de orienta-
ción vocacional basada en redes neuronales?

El uso de las redes neuronales influye positivamente en la toma de decisiones para la


elección de una carrera universitaria en los alumnos de 5° de secundaria.

Figura 3. Resultado a la pregunta ¿El sistema le ayudó a tomar una decisión más rápida en
cuanto a la carrera que deseas?

El uso de las redes neuronales reduce el tiempo de análisis de datos para la orientación
sobre una carrera profesional.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Figura 4. Resultado a la pregunta ¿Considera que el uso del sistema le ayudaría a mejorar la
toma de sus decisiones?

El uso de las redes neuronales ayuda en la toma de decisiones referente a la orienta-


ción vocacional para elegir una carrera profesional.

Figura 5. Resultado a la pregunta ¿Cuál de los métodos de test vocacional se le hace más
práctico de realizar?

El método tradicional a muchos de los alumnos se les hace un poco más complicado
que el uso de las redes neuronales.

6. Conclusiones

 Las redes neuronales son muy importantes para el desarrollo de sistemas para
el procesamiento de datos.
 Los alumnos prefieren el uso de las redes neuronales a una entrevista perso-
nal, ya sea por motivos emocionales u otros.
 El uso de este sistema optimiza tiempos en el área de orientación vocacional.
 La implementación de un software que permita desarrollar un proceso de to-
ma de decisiones en la elección de una carrera universitaria en los estudiantes


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

del quinto grado de secundaria, es de gran importancia y utilidad en el ámbi-


to académico, ya que le permite al estudiante ir desarrollando cada prueba
vocacional a través de un entorno interactivo y ameno.
 Con este desarrollo se ofrecen herramientas alternas para apoyar la selección
de una carrera profesional a un estudiante que está culminando el quinto gra-
do de secundaria.
 Se seleccionó dentro del área de inteligencia artificial, una técnica de apren-
dizaje computacional: redes neuronales, que de acuerdo a sus características
presenta un mejor desempeño y confiabilidad de respuesta al proceso de to-
ma de decisión de elección de una carrera universitaria, a un estudiante para
ingresar a la universidad.
 Se logró sistematizar la prueba de toma de decisión para la elección de una
carrera universitaria, a través de una interfaz diseñada en Python, bajo un en-
torno de selección múltiple con única respuesta.

Referencias

[1] Columbo Orlando Castillo Merino, Elizabeth Reséndiz Sánchez, Mónica


Romero Cruz. “La orientación Vocacional: su importancia en la elección de
opciones educativas de nivel medio superior para alumnos de tercero de se-
cundaria diurna”, tesis universitaria de la universidad pedagógica nacional.
[2] Enzo Roberto Retto Vera, Percy Junior Cabana Shapiama. “Desarrollo de un
sistema de información aplicado al proceso de orientación vocacional en zo-
nas rurales del departamento de lima”, tesis universitaria de la PUCP.
[3] Laurene Fausett, “Fundamentals of Neural Networks”, Prentice-Hall, New
Yersey, USA, 1994.
[4] Bryce, T.J., Dewhirst, M. W., Floyd, C.E., Jr., Hars, V., & Brizel, D.M.,
1998, Artificial neural network model of survival in patients treated with ra-
diation with and without concurrent chemotherapy for advanced carcinoma of
the head and neck. International Journal of Radiation Oncology. Biological
Physics, 41(2), 344–345.
[5] Enzo Roberto Retto Vera, Percy Junior Cabana Shapiama. “Desarrollo de un
sistema de información aplicado al proceso de orientación vocacional en zo-
nas rurales del departamento de lima”, fragmento del marco teórico de la te-
sis universitaria de la PUCP.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Red Neuronal Artificial para el pronóstico de


precipitaciones según el tipo de nubes en Huancayo

Miguel Córdova1, Dennis Collazos1, José Camarena1, Diego Baquerizo1


1
Facultad de Ingeniería. E.A.P. de Ingeniería Informática y de Sistemas
Universidad Continental 1980 Av. San Carlos (Huancayo)
{mcordova@continental.edu.pe, u2008101112@continental.edu.pe,
u2008110134@continental.edu.pe, u2008206228@continental.edu.pe}

Resumen. En este artículo se elabora una aplicación informática sobre


una red neuronal artificial que busca pronosticar las precipitaciones que
se podrían dar de acuerdo a los tipos de nubes que una persona puede
observar en el cielo (tropósfera). Es difícil hoy en día conocer si viendo
una nube cargada en el cielo más tarde o dentro de unas horas habrá una
precipitación de llovizna, lluvia, granizo o nieve debido a que existen
muchos factores que intervienen para que se dé un tipo de precipitación
como la altura del lugar, la temperatura, la velocidad del viento, los ti-
pos de nubes en el cielo, etc. Para una persona que no tiene conocimien-
tos sobre precipitaciones es difícil interpretar toda esta información, es
así que se desarrolló la investigación tomando en cuenta solo los tipos
de nubes para luego poder pronosticar las precipitaciones que se po-
drían dar. La herramienta que se utilizó para desarrollar la red neuronal
artificial fue Neuroshell y la aplicación informática se desarrolló en el
lenguaje de programación Phyton.

Palabras clave: Red Neuronal Artificial, Precipitación, Neuroshell,


Phyton.

1 Introducción

El presente trabajo se desarrolló con la finalidad de ayudar a la población huancaína,


principalmente a estudiantes de colegios y público en general, a poder conocer las
precipitaciones que se pueden dar de acuerdo los tipos de nubes que se presentan en la
tropósfera o cielo como comúnmente se le conoce.

En la investigación se plantea las redes neuronales artificiales como una técnica de


pronóstico de precipitaciones. Este tipo de método se ha considerado que puede ser
mejor que otros mecanismos de predicción de precipitaciones por el tiempo de res-
puesta obtenida. Ya que normalmente otros sistemas de diagnóstico existentes tardan


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

mucho tiempo en hallar la respuesta debido a la encadenación de datos que tienen que
realizar, luego de esto dan posibles soluciones y tienen que compararlas todas, mien-
tras que con el uso de una red neuronal artificial se han aplicado valores numéricos a
cada tipo de precipitación (lo cual implica un conocimiento heurístico), que permite la
ejecución de una función matemática que obtiene los resultados de pronóstico de
manera más rápida.

Para realizar la investigación se eligió la gran parte de nubes existentes y que se pre-
sentan en la ciudad y de las relaciono con los tipos de precipitaciones que cada una de
ellas producen. El programa Neuroshell y el lenguaje de programación Phyton, fueron
las herramientas que se eligieron para desarrollar la aplicación.

2 Redes neuronales artificiales (RNA)

La RNA es una forma de computación inspirada en modelos bilógicos; es un elemento


computacional de procesamiento, como unidades similares a las del cerebro humano,
que tienen la capacidad de procesar información y aprender de ella [1]. También se
puede conceptualizar como un sistema de computación que consiste en un gran núme-
ro de elementos de proceso muy interconectados, los cuales procesan información por
medio de su estado dinámico como respuesta a entradas externas [1].

Características de las redes neuronales artificiales:


Están constituidas por elementos que se comportan de forma similar a la neurona
biológica en sus funciones más comunes. Estos elementos están organizados de una
forma parecida a la que presenta el cerebro humano (Grafico N° 1). Las ANN al mar-
gen de "parecerse" al cerebro presentan una serie de características propias del cere-
bro. Por ejemplo las ANN aprenden de la experiencia, generalizan de ejemplos pre-
vios a ejemplos nuevos y abstraen las características principales de una serie de datos.
Aprender: adquirir el conocimiento de una cosa por medio del estudio, ejercicio o
experiencia. Las ANN pueden cambiar su comportamiento en función del entorno. Se
les muestra un conjunto de entradas y ellas mismas se ajustan para producir unas sali-
das consistentes.
Generalizar: extender o ampliar una cosa. Las ANN generalizan automáticamente
debido a su propia estructura y naturaleza. Estas redes pueden ofrecer, dentro de un
margen, respuestas correctas a entradas que presentan pequeñas variaciones debido a
los efectos de ruido o distorsión [2].







Gráfico N°1: Partes de una neurona


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

3 Precipitación y nubes

La precipitación es el fenómeno que abarca a todos aquellos hidrometeoros que caen,


tales como, lluvia, granizo, nieve. Se conoce como hidrometeoro a cualquier producto
formado por la condensación del vapor atmosférico ya sea en el aire o en la superficie
de la tierra [3].

Tipos de Precipitación Considerados en la Investigación:

Llovizna o Garúa
En algunas regiones es más conocida como garúa, consiste en pequeñas gotas de agua
líquida cuyo diámetro fluctúa entre 0.1 y 0.5 mm; debido a su pequeño tamaño tienen
un asentamiento lento y en ocasiones parecen que flotaran en el aire. La llovizna
usualmente cae de estratos bajos y rara vez excede de 1 mm/h. [4]

Lluvia
Es la forma de precipitación más conocida. Consiste de gotas de agua líquida común-
mente mayores a los 5 mm de diámetro. En algunos países suelen clasificarla según su
intensidad según su intensidad como ligera, moderada o fuerte (Tabla N° 1). [5]

Tabla N°1: Clasificación de la lluvia según su intensidad





Nieve
Está compuesta de cristales de hielo, de forma hexagonal ramificada (Figura 3), y a
menudo aglomerada en copos de nieve, los cuales pueden alcanzar varios centímetros
de diámetro. Aparece cuando las masas de aire cargadas de vapor de agua se encuen-
tran con otras cuya temperatura es inferior a 0°C. La densidad relativa de la nieve
recién caída varía sustancialmente, pero en promedio se asume como 0.1 [6].

Gráfico N°2: Escarcha Figura Gráfico N°3: Cristales de nieve

Gra-
nizo


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Es la precipitación en forma de bolas de hielo, producida por nubes conectivas. El


granizo se forma a partir de partículas de hielo que, en sus desplazamientos por la
nube, van "atrapando" gotas de agua. Las gotas se depositan alrededor de la partícula
de hielo y Escarcha sobre Cristales de nieve Los granizos pueden ser esferoidales,
cónicos o irregulares en forma, y su tamaño varía desde 5 hasta 125 mm de diámetro,
pudiendo llegar a destrozar cosechas. [7]

Tipos de Nubes Considerados en la Investigación

Cirros:
Son nubes blancas, transparentes y sin sombras internas que presentan un aspecto de
filamentos largos y delgados. Estos filamentos pueden presentar una distribución
regular en forma de líneas paralelas, ya sean rectas o sinuosas. Ocasionalmente los
filamentos tienen una forma embrollada. La apariencia general es como si el cielo
hubiera sido cubierto a brochazos. Cuando los cirros invaden el cielo puede estimarse
que en las próximas 24 h. habrá un cambio brusco del tiempo; con descenso de la
temperatura. [8]

Estratos:
Tienen la apariencia de un banco de neblina grisáceo sin que se pueda observar una
estructura definida o regular. Presentan manchones de diferente grado de opacidad y
variaciones de la coloración gris. Durante el otoño e invierno los Estratos pueden
permanecer en el cielo durante todo el día dando un aspecto triste al cielo. Durante la
primavera y principios del verano aparecen durante la madrugada dispersándose du-
rante el día, lo que indica buen tiempo. [9]

Cúmulos:
Presentan un gran tamaño con un aspecto masivo y de sombras muy marcadas cuando
se encuentran entre el Sol y el observador, es decir, son nubes grises. Presentan una
base horizontal y en la parte superior protuberancias verticales de gran tamaño que se
deforman continuamente, presentando un aspecto semejante a una coliflor de gran
tamaño. Los Cúmulos corresponden al buen tiempo cuando hay poca humedad am-
biental y poco movimiento vertical del aire. En el caso de existir una alta humedad y
fuertes corrientes ascendentes, los Cúmulos pueden adquirir un gran tamaño llegando
a originar tormentas y aguaceros intensos. [10]

Además se han considerado los tipos de nubes mixtas: cirrocúmulos, cirrostratos,


altocúmulos, altoestratos, nimbostratos, estratocúmulos, cumulonimbos.

4 Herramientas

Herramientas empleados para el procesamiento de datos de la red neuronal artificial.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Phyton:
Es un lenguaje de programación creado por Guido Van Rossum a principios de los
años 90 cuyo nombre está inspirado en el grupo de cómicos ingleses “Monty Python”.
Es un lenguaje similar a Perl, pero con una sintaxis muy limpia y que favorece un
código legible. Se trata de un lenguaje interpretado o de script, con tipado dinámico,
fuertemente tipado, multiplataforma y orientado a objetos. [11]

Neuroshell:
Es un software que permite el ingreso de valores de entrenamiento, los entrena y gene-
ra código fuente, lo componen un conjunto de herramientas de técnicas tradicionales y
de inteligencia artificial (AI). [12]

5 Desarrollo

Una vez conocidos los conceptos de tipos de nubes, precipitaciones y herramientas de


procesamiento de datos se continúa con el siguiente paso que es desarrollar la Red
Neuronal Artificial (RNA), para ello se tiene que identificar tanto las entradas como
las salidas de datos. A continuación se procede a identificarlas.

Inputs: Tipos de Nubes:


1. Cirros
2. Cirrocúmulos
3. Cirrostratos
4. Altocúmulos
5. Altoestratos
6. Nimbostratos
7. Estratocúmulos
8. Estratos
9. Cúmulos
10. Cumulonimbos

Outputs: Tipos de Precipitaciones:


1. Cielo Despejado (Sin presencia de precipitaciones)
2. Llovizna
3. Lluvia
4. Granizo

El comportamiento de las precipitaciones se describe de la siguiente manera, en la


primera fila del grafico n°4 cuando una persona vea un tipo de nube en el cielo se le
asigna el valor de 1, caso contrario el valor de -1 (todo esto en la primera parte del
grafico mencionado - tipos de nubes), y por otro lado en la parte del grafico de tipo de
precipitación, cuando un tipo de nube produzca un tipo precipitación se le asigna el
valor de 1 o caso contrario el valor de -1. Una vez conocidos los valores de las entra-


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

das y salidas de datos de la red neuronal artificial se procede a elaborar el grafico del
modelo completo de la red neuronal artificial (Grafico N°5).

Gráfico N°4: Muestras de los valores de las Entradas y Salidas de la RNA


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Gráfico N°5: Modelo Completo de la Red Neuronal Artificial

Desarrollo de la aplicación informática

La aplicación informática de la red neuronal artificial como antes se mencionó se


llegó a desarrollar utilizando Phyton como lenguaje de programación. Para ello se
procedió a construir el código del programa (Gráfico N°6 y Gráfico N°7). También se
realizaron las pruebas del recuerdo y pruebas de aprendizaje respectivamente (Gráfico
N°8 y Gráfico N°9).



$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Gráfico N°6: Código del programa en Phyton







Gráfico N°7: Interfaz de la aplicación
p de la RNA en Phyton







$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Gráfico N°8: Prueba del Recuerdo







Interpretación del Gráfico: Se puede comprobar que exactamente el tipo de nube
Cúmulos puede llegar a producir Lluvias, Granizo y Hasta Nieve, cabe resaltar que los
dos primeros valores están saliendo “cero” en ves de “uno” ya que Phyton redondea
los números a su número base.


Gráfico N°9: Prueba de Aprendizaje




Interpretación del Gráfico: Con los tipos de nubes Cirros y Altoestratos (valores
iguales a 1) se podrá tener con seguridad que habrá una precipitación de Llovizna y
posible cielo despejado. Cabe resaltar que valores están saliendo ya que Phyton re-
dondea los números a su número base.










$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

6 Conclusiones

 Al desarrollar el sistema inteligente basado en RNA, se puede concluir que se


puede predecir el tiempo y las precipitaciones con respecto al tipo de nubes
que existen con algoritmos heurísticos.
 El programa desarrollado es de fácil uso para los estudiantes de colegio,
universidad y público en general que viven en la ciudad o fuera de ella, ya
que podrán reconocer las nubes que existen y dependiendo de su tipo llega-
ran a saber si habrá una posible precipitación o no.
 La red neuronal artificial asimila su proceso de aprendizaje rápidamente por-
que tiene valores concretos y exactos. Además ya que no presenta alguna di-
ficultad en su desarrollo podría servir como herramienta de pronóstico dentro
de alguna organización que se dedique a este rubro.
 Finalizando, esta investigación debería continuar considerando ahora no solo
los tipos de nubes, sino también otros factores que intervienen en la precipi-
taciones como la altitud, latitud, longitud, estación del año, velocidad del
viento, etc.

7 Referencias

[1] Serrano Cinca, C (2000): "Las redes neuronales artificiales", [en línea] 5campus.org,
Sistemas Informativos Contables <http://www.5campus.org/leccion/redes>
[2] Olabe Basogain Xabier. (2001). Redes neuronales artificiales y sus aplicaciones,
Dpto. ingeniería de sistemas y automática escuela superior de ingeniería, Bilbao.
[3] Monsalve, Chow, V. T. (1994). Hidrología Aplicada. Bogota - Colombia: McGraw-
Hill.
[4] Aparicio, F. J. (1992). Fundamentos de Hidrología de superficie. México: Limusa
S.A.
[5] Roberto Villalobos, José Retana (2000), Sistema de Pronóstico de Lluvias en Costa
Rica. Agrupación de años con características pluviométricas semejantes para la creación
de escenarios climáticos, gestión de desarrollo instituto meteorológico nacional, Costa ri-
ca.
[6] Universidad de Piura. Biblioteca Central. Tesis [en línea]. Piura: Universidad de Piu-
ra, Biblioteca Central. [Consulta: 5 junio de 2013]
http://www.biblioteca.udep.edu.pe/BibVirUDEP/tesis/pdf/1_136_147_89_1257.pdf
[7] International Cloud Atlas/Atlas Internacional de Nubes publicado por la World Me-
teorological Organization, Ginebra, Suiza. Publicación nº 407
[8] Las Nubes. Las maravillosas nubes Instituto Nacional de Meteorología, Ministerio de
MedioAmbiente, Madrid 2007 ISBN 978-84-8320-390-3
[9] Vocabulario de términos meteorológicos y ciencias afines, Alfonso Ascaso Liria y
Manuel CasalsMarcén. INM. ISBN. 505-478226, pp. 408.
[10] Manual del Observador de Meteorología, José María Jansá Guardiola. Publicación
del Instituto Nacional de Meteorología, INM. 22 Edición SMN.
[11]¿Qué es Phyton?, Mundo geek
www.mundogeek.net/archivos/2008/01/10/%C2%BFque-es-python/
[12] A simple overview, http://neuroshell.com/learnmore.asp


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Sistema Experto para el diagnóstico de fallas de un


teléfono móvil

Miguel Córdova1, Jhon Pari1, Jacinto Huamancusi1


1
Facultad de Ingeniería. E.A.P. de Ingeniería Informática y de Sistemas
Universidad Continental 1980 Av. San Carlos (Huancayo)
{mcordova@continental.edu.pe, u2008114981@continental.edu.pe,
u2008108029@continental.edu.pe}

Resumen. En este artículo se presenta un sistema experto en EXSYS PRO


basado en reglas con encadenamiento hacia adelante que permita conocer
desde una estructura los problemas más frecuentes que presenta un teléfono
móvil, diagnosticando así dichos problemas. Este sistema experto es capaz de
solucionar un conjunto de problemas que exigen un gran conocimiento sobre un
determinado tema en este caso sobre el diagnóstico de las fallas de un teléfono
móvil. Está basado en un conjunto de reglas, sobre una base de conocimientos,
posee información de uno o más expertos en el área específica de dispositivos
móviles. El sistema experto será una herramienta efectiva, para que los usuarios
puedan interactuar de una forma fácil y rápida.
Palabras clave: Reglas de Encadenamiento hacia adelante, Análisis heurístico,
sistema experto.

1 Introducción

Se revisó varios estudios sobre sistemas expertos para diagnóstico, este es un


antecedente de ello: La elaboración y funciones de un sistema experto de diagnóstico
de computadoras (SEDC) y su uso como soporte técnico de hardware para la vida
cotidiana [1]. Inicialmente se investigó y analizó la mejor forma de poder solucionar
los problemas que enfrentan la mayoría de las personas sin experiencia a la hora de
prender una PC, como por ejemplo que al sentarse frente a la misma no encendiera la
PC o asimismo el envío de mensajes de error en la fuente de poder, entre otros [3].
También tomamos en cuenta errores como la generación de ciertos ruidos que como
consecuencia trajera la alteración del usuario o la llamada a un técnico, en cuya
situación también podría pasar que el técnico no sepa lo que tiene la PC y se la deje
en peor estado y le cobre por algo que no se arregló y quedamos enfadados con el
resultado; por esto mismo decidimos que a través de un Sistema Experto pueda
ayudar en los problemas que se le presenten [2]. SEDC está diseñado para ayudar a
los usuarios que enfrentan problemas relacionados con su computadora en su vida
diaria. El sistema se centra en los problemas que ocurren comúnmente. Su objetivo es
de ayudar a los usuarios a localizar y resolver los problemas que comúnmente ocurren
(hardware) en la computadora.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

2 Metodología

Entrevista: Para desarrollar este sistema se entrevistó a un Experto en la materia,


se le realizó un conjunto de preguntas luego lo evaluamos para poder crear la solución
adecuada. A partir de esta entrevista se muestra la siguiente representación del
conocimiento mediante un árbol de decisiones:

Fig. 1 Representación del conocimiento según si es hacia atrás o hacia adelante el sistema
experto

Descripción de CHOICES (objetivos):


 Encienda el celular o teléfono móvil
 Batería baja
 Audio malo
 Falta configurar audio
 Problemas con la señal
 Configurar para un mejor manejo


Fig.2 CHOICES ingresados al sistema
$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Descripción de QUALIFIERS

 Estado de encendido del móvil


ƒ Apagado
ƒ Prendido
 Celular prendido
ƒ No funciona con normalidad
ƒ Funciona normalmente
 Prueba de la batería
ƒ Se apaga el celular en un momento
ƒ No se apaga el celular
 Prueba del sonido
ƒ No hay sonido de ninguna forma
ƒ Sonido con normalidad
 Prueba de llamadas
ƒ No se escucha ni me escuchan
ƒ Se escucha borroso
ƒ Se escucha con normalidad
 Pruebas a realizar
ƒ De la batería
ƒ Del sonido
ƒ De las llamadas

Fig.2 QUALIFIERS ingresados al sistema

3 Descripción de las Reglas

Las reglas se definen a partir de un conjunto de objetos que van a representar


variables del modelo considerado, estás representan relación entre las variables. Se


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

definirán las reglas utilizadas, especificando para cada una, su nombre y su


descripción.

Nombre de la Formulación Regla


Regla
Regla N°1 Si estado de encendido del móvil prendido y calcular
prendido no funciona con normalidad.
Entonces
Prueba a realizar batería baja
Regla N°2 Si estado de encendido del móvil prendido y celular
prendido funciona con normalidad.
Entonces no hay problema-Confidence=1
Regla N°3 Si estado encendido del móvil apagado.
Entonces encienda el celular -Confidence=1
Regla N°4 Si pruebas a realizar de la batería y prueba de la batería
se apaga.
Entonces Batería baja-Confidence=1
Regla N°5 Si pruebas a realizar de la batería y prueba de la batería
no se apaga.
Entonces prueba a realizar del sonido
Regla N°6 Si prueba a realizar del sonido y prueba del sonido no
hay sonido de ninguna forma.
Entonces audio malo-Confidence=1
Regla N°7 Si pruebas a realizar del sonido y prueba del sonido con
normalidad.
Entonces pruebas a realizar de llamadas
Regla N°8 Si pruebas a realizar de llamadas y pruebas de llamadas
no se escucha ni me escuchan.
Entonces falta configurara el audio-Confidence=1
Regla N°9 Si pruebas a realizar de llamadas y prueba de llamadas
se escucha borrosa.
Entonces problemas con la señal
Regla N°10 Si pruebas a realizar de llamadas y pruebas de llamadas
se escucha con normalidad.
Entonces configurar para un mejor manejo-
Confidence=1.
Tabla1. Formulación de reglas

4 Pruebas

Se evalúa el desempeño del sistema experto, revisando su capacidad para plantear


soluciones a problemas y cumplir los requisitos impuestos por los expertos. La
evaluación la llevan a cabo los expertos quienes sugieren aspectos en que el sistema
debe ser mejorado. En esta etapa se inicia el desarrollo incremental. Dependiendo del


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

resultado de las pruebas, será necesario volver a la Implementación o inclusive a


etapas anteriores.

Fig3.Resultado de la prueba del sistema experto

Conclusiones

En este presente trabajo de investigación da a conocer, como poder organizar y


representar en primer lugar los conocimientos de un experto antes de empezar a
utilizar el programa, luego el orden para pasar las reglas de forma ordenada al
sistema, se pueden hacer algunas mejoras con las opciones que nos dan con respecto a
la interfaz de usuario, para un mejor manejo, lo que en mi opinión rescato es y muy
importante la manera de la obtención de la información para que el sistema experto
tenga mayor confiabilidad y usabilidad.

Referencias

1. Rodolfo Adrián Becerra (2011). Sistemas Expertos para la realización de diagnóstico de
trastornos neuromusculares con electromiografía: Tesina de Argentina.
2. Carlos Herrero Jiménez (2003). Sistemas Expertos para la realización de diagnóstico de
trastornos neuromusculares con electromiografía: Tesis doctoral de España
3. Shrobe, Robert S. Engelmore (Ed.).Mayo 1993. Del Japanese Technology Evaluation Center
(JTEC).


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Detección de spam basado en redes neuronales

Miguel Córdova1, Jhimmy Gago1, Jimmy Paredes1


1
Facultad de Ingeniería. E.A.P. de Ingeniería Informática y de Sistemas
Universidad Continental 1980 Av.San Carlos-San Antonio (Huancayo)
{mcordova@continental.edu.pe, u2006100630@continental.edu.pe,
u2007104318@continental.edu.pe }

Resumen. A causa de un número tentativo de correos electrónicos los


publicistas y spammers ven el modo para obtener un listado grande de correos y
así poder enviar spam. Todos los días, billones de e-mails invaden las bandejas
de entrada de los usuarios de Internet. De todos estos, una cantidad muy
importante es considerada “correo basura”, compuesto por mensajes
publicitarios no solicitados, cadenas de la suerte o incluso virus que se auto
envían, el spam aqueja a más de un usuario, y hace que la tarea de revisar el
correo sea una verdadera molestia y por todo este problema proporcionaremos
un software basado en redes neuronales capaz de aprender patrones de spam en
correos electrónicos, definiremos reglas de aprendizaje para la red neuronal,
para la detección de spam en el correo electrónico y determinaremos la
arquitectura de red neuronal para la resolución de la problemática planteada. La
cual se implementará con el lenguaje de programación de Visual Basic.
Palabras clave: Spam, Internet, Redes neuronales, E-mail, Backpropagation.

1 Introducción

Todos los días, millones de e-mails invaden las bandejas de entrada de los usuarios
de Internet. De todos éstos, una cantidad muy importante es considerada "correo
basura" [1] y están compuestos por mensajes publicitarios no solicitados, cadenas de
la suerte o incluso virus que se auto envían, el Spam afecta a más de un usuario y hace
que la tarea de revisar el correo sea una verdadera molestia [2].
El problema fundamental lo representan los spams, que son mensajes publicitarios
no solicitados. Ya no resulta raro para quienes contamos con una dirección de correo
electrónico recibir a diario varios mensajes con propagandas de las más variadas
temáticas. A pesar de que ningún método de detección de Spam es totalmente
efectivo, consideramos que si es posible mejorar los existentes y reducir
considerablemente las deficiencias que actualmente presentan las herramientas
disponibles. [3]
Es un hecho que parte de los mensajes no deseados escapan a los sistemas de
detección de correo basura constituyendo así un "falso negativo", igualmente existe la
posibilidad de identificar un mensaje como Spam sin serlo, lo que se conoce como
"falso positivo" [4]. La idea es tomar las máximas precauciones posibles para
minimizar este efecto, y para ello se debe ser consciente de este hecho antes de
adoptar las posibles medidas de filtrado que se propondrá [5].


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

2 El spam

Problemas relacionados con el Spam


El crecimiento de Internet a nivel mundialestá cambiando nuestra forma de
comunicación entre otros, por lo que cada vez la gente utiliza más el correo
electrónico. A causa de un número tentativo de correos electrónicos los publicistas y
spammers ven los modos para obtener un listado grande de correos y así poder enviar
spam. Todos los días, billones de e-mails invaden las bandejas de entrada de los
usuarios deInternet. De todos éstos, una cantidad muy importante es considerada
"correo basura". Compuesto por mensajes publicitarios no solicitados, cadenas de la
suerte o incluso virus que se autoenvían, el spam aqueja a más de un usuario, y hace
que la tarea de revisar correo sea una verdadera molestia.

Los principales problemas son los siguientes


 Pérdida de productividad y dinero en las empresas.
 Reducción de efectividad del correo electrónico.
 Amenaza la viabilidad de Internet como un medio efectivo de comunicación.
 Incremento de costos relacionados con el tiempo.
 Genera importantes costos de seguridad a empresas ISP’s.
 Incremento de propagación de virus informáticos.
 Saturación de servidores. Muchos servidores dedicados para uso privado o
para uso general son congestionados implicando una reducción de calidad de
servicio.
 Denegación de servicios (Deny of services). Una cantidad excesiva de
correos no deseados puedo congestionar totalmente el servicio y así
denegarlo al mismo.
 Buzón de entrada incontrolable por parte del receptor. Causado por la
cantidad masiva que los spammers envían a los correos electrónicos.
 Daño de imagen de terceros.
 Molestias por parte del receptor

Solución:
 Mediante Internet se manda un correo desde cualquier otra parte.
 El correo viaja para ser entregado al destinatario y toparse con el sistema
expert.
 El correo es descompuesto y analizado.
 Se compara las estadísticas.
 El paquete llega al motor inteligente para compararlo con reglas en la base de
datos.
 La base de datos da la respuesta al Motor AI.
 El motor AI reconoce al correo como Spam y lo manda a una base de datos
en cuarentena.
 El motor AI reconoce al correo como legítimo.
 El usuario puede ver su correo legítimo una vez analizado por las redes
neuronales artificiales.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Fig.1 Esquema de funcionamiento del correo

A continuación se presenta el esquema general de la solución, aplicado a la Red


Neuronal de tipo Backpropagation:
 Tipo de red backpropagation
 Estudio de patrones de spam
 Aprendendizaje inteligente

Fig.2 Solución aplicada una Red Neuronal de tipo Backpropagation

En este tipo de ANN el error se propaga hacia atrás (back-propagation), hacia la


capa de neuronas anterior y se usa para ajustar los pesos sinápticos en esta capa. Y
posteriormente se progrará a capas anteriores hasta llegar a la capa de entradas.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Fig.3 Esquema De La Detección De Spams

A continuación se presenta el conocimiento de las entradas y salidas a partir de la


cual se entrenará en el NeuroShell.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Fig.4 Entradas y Salidas

E1

E2

S1
E3

E4

E5

E6

Fig.5 Representación por capas de una red neuronal artificial

3 Diseño de la red neuronal artificial

Se procederá a preparar los datos que serán utilizados en el estudio, para ello se
toman datos en los que las variables de salida tomaran valores que identifiquen el tipo
de mensaje, con el objeto de que las redes obtenidas tengan una mayor capacidad de
generalización.
La herramienta NeuroShell proporciona mediante un módulo adicional la
posibilidad de generar el código que implementa el comportamiento de la
neurona. Así con este código se han aplicado las redes estudiadas para
comprobar la validez de su funcionamiento cuando se presentan datos
distintos a los que se utilizaron para su aprendizaje.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Fig. 6 Interfaz del Neuroshell

Antes de exponer los resultados obtenidos se ofrece una breve descripción de los
pasos que se han seguido en el entrenamiento de todas y cada una de las redes
generadas:
Abrir el NeuroShell 2 y completar brevemente la descripción del caso a analizar:

Fig.7 Completar brevemente la descripción

Acceso al panel de control del NeuroShell e ingresar a la opción Problem Input:

Fig.8 Acceso al panel de control del Neuroshell


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Definición de entradas y salidas. El siguiente paso consiste en indicar qué


variables se consideran como entradas y cuáles son salidas, y a su vez calcular
los valores máximos y mínimos de las variables.

Fig.9 Definición de entradas y salidas

Extracción del conjunto de test. El conjunto de test o conjunto de prueba es un


grupo de patrones que se utilizan como datos desconocidos durante el aprendizaje de
la red. Para realizar la prueba de extracción de datos; teniendo en cuenta que para
nuestro caso:
N= 6 y M=13.

Fig. 10 Realizar la prueba de extracción de datos

Determinación de números de filas de entrenamiento y de aprendizaje las


cuales coinciden y son iguales a 6.

Fig.11 Determinación de números de filas de entrenamiento y de


aprendizaje.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Aprendizaje. Una vez definidos los parámetros de la red neuronal se pasa al


proceso de aprendizaje, la pantalla de la herramienta varía dependiendo de la
arquitectura seleccionada pero en todas ellas es posible visualizar gráficas y datos
estadísticos del proceso. Inicio del proceso de aprendizaje del sistema:

Fig.12 Inicio del proceso de aprendizaje

Aplicación de la red neuronal. La herramienta ofrece la posibilidad de observar el


error producido por la red con los datos con los que se ha realizado el aprendizaje,
para aplicarla a nuevos datos se han desarrollado aplicaciones que utilizan los
archivos (.VB y .C) creados por el módulo de generación de código.

Fig.13 Exportación a VB


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

4 Plataformas de desarrollo

Plataforma Microsoft (Visual Basic / Visual C++)


Microsoft ofrece el entorno de desarrollo conocido como Microsoft Visual Studio,
que además de disponer de los lenguajes de programación Visual C++ y Visual
Basic. En cuanto a la elección de Visual C++ o Visual Basic, es conocido que
frente a lenguajes como Basic o Java, Visual C++ ofrece una mayor complejidad,
por lo que sólo es recomendada su utilización para la codificación que no se
pueda afrontar en Visual Basic.

Código fuente en Visual Basic

PublicClass FormSpam a2 = a2
PrivateSub Button1_Click(ByVal sender
As System.Object, ByVal e As If (a3 < 0) Then a3 = 0
System.EventArgs) Handles If (a3 > 1) Then a3 = 1
Button1.Click a3 = a3
Dim netsum AsDouble
Dim a1, a2, a3, a4, a5, a6, out AsInteger If (a4 < 0) Then a4 = 0
Dim f1, f2, f3, f4, f5, f6 AsDouble If (a4 > 1) Then a4 = 1
' a1 is ¿El_mensaje_no_resulta_conocido? a4 = a4
' a2 is ¿Presenta_un_asunto_llamativo?
' a3 is ¿El_contenido_es_publicitario? If (a5 < 0) Then a5 = 0
' a4 is If (a5 > 1) Then a5 = 1
¿La_mayor_parte_del_contenido_esta_esc a5 = a5
rito_en_ingles?
' a5 is If (a6 < 0) Then a6 = 0
¿El_mensaje_no_suele_tener_direccion_R If (a6 > 1) Then a6 = 1
eply? a6 = a6
' a6 is ¿El_mensaje_llama_la_atencion?
' out is Salida netsum = -0.3211061
netsum = netsum + a1 * -0.3640608
a1 = Me.V1.Text netsum = netsum + a2 * 0.06594416
a2 = Me.V2.Text netsum = netsum + a3 * -0.2551951
a3 = Me.V3.Text netsum = netsum + a4 * -0.2885674
a4 = Me.V4.Text netsum = netsum + a5 * -0.4744951
a5 = Me.V5.Text netsum = netsum + a6 * 0.08834711
a6 = Me.V6.Text f1 = 1 / (1 + Math.Exp(-netsum))

If (a1 < 0) Then a1 = 0 netsum = -0.01706024


If (a1 > 1) Then a1 = 1 netsum = netsum + a1 * 0.8814639
a1 = a1 netsum = netsum + a2 * 0.05284086
netsum = netsum + a3 * -0.09797604
If (a2 < 0) Then a2 = 0 netsum = netsum + a4 * -0.01201381
If (a2 > 1) Then a2 = 1 netsum = netsum + a5 * 0.7417135


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

netsum = netsum + a6 * 0.1803212 f5 = 1 / (1 + Math.Exp(-netsum))


f2 = 1 / (1 + Math.Exp(-netsum))
netsum = -0.3673867
netsum = -0.1223203 netsum = netsum + a1 * 1.406166
netsum = netsum + a1 * -0.6471353 netsum = netsum + a2 * -0.1207117
netsum = netsum + a2 * -0.1996552 netsum = netsum + a3 * -0.201364
netsum = netsum + a3 * 0.1586967 netsum = netsum + a4 * 0.04720199
netsum = netsum + a4 * -0.06504519 netsum = netsum + a5 * 1.255411
netsum = netsum + a5 * -0.870366 netsum = netsum + a6 * 0.1373208
netsum = netsum + a6 * -0.1693648 f6 = 1 / (1 + Math.Exp(-netsum))
f3 = 1 / (1 + Math.Exp(-netsum))
netsum = 0.211688 netsum = 0.147185
netsum = netsum + a1 * -0.5709133 netsum = netsum + f1 * -0.6318666
netsum = netsum + a2 * -0.3558667 netsum = netsum + f2 * 1.185986
netsum = netsum + a3 * -0.1604044 netsum = netsum + f3 * -1.000826
netsum = netsum + a4 * -0.02700385 netsum = netsum + f4 * -0.980517
netsum = netsum + a5 * -0.8076027 netsum = netsum + f5 * -3.218922
netsum = netsum + a6 * -0.276928 netsum = netsum + f6 * 2.083746
f4 = 1 / (1 + Math.Exp(-netsum)) out = 1 / (1 + Math.Exp(-netsum))

netsum = 1.197361
netsum = netsum + a1 * -1.773387 out = (out - 0.1) / 0.8
netsum = netsum + a2 * 0.2164316
netsum = netsum + a3 * - If (out < 0) Then out = 0
0.001986516 If (out > 1) Then out = 1
netsum = netsum + a4 * 0.1791659 Me.R1.Text = out
netsum = netsum + a5 * -1.843629 EndSub
netsum = netsum + a6 * 0.3106307 EndClass

5 Pruebas De comprobación
Prueba Nº 01 (No es Spam)

Prueba Nº 02 (Si es Spam)


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

6 Conclusiones

Las redes neuronales contemplan dos aspectos: primero un intento de imitar


nuestra forma de pensar, por otro lado un magnífico algoritmo basado en la
paralelización masiva, al contrario de los sistemas informáticos habituales que se
basan en procesar las cosas en serie. Esa es también la forma que tiene el ser humano
de pensar. En esta investigación se ha comprobado que las redes neuronales son una
opción viable y eficaz para detectar Spam. Sin embargo, para obtener mejores
resultados, es necesario tener una cantidad suficiente de análisis de datos. Se sugiere
que el sistema deba aprender más tiempo para que nos dé un margen de error menor.

Referencias

1. Rich y Knight [1994] y Stuart [1996].


2. Nebendah [1988] y Delgado [1998].
3. Shachmurove, 2002
4. Redes neuronales artificiales Fundamentos, modelos y aplicaciones - Ing. Ivan A. Olier , Ing.
Gilberto Guerrero
5. Aplicación de redes neuronales para la detección del SPAM - Jimmy Gutierrez Nina
6. ¿Qué son las redes neuronales? http://www.redes-neuronales.netfirms.com/tutorial-
redesneuronales/que-son-las-redes-neuronales.htm


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Diseño de páginas Web con Wordpress

Silvia Díaz Fernández

Master Universitario en Ingeniería del SW para la Web


E.T.S. de Ingeniería Informática
Universidad de Alcalá
28871 Alcalá de Henares (Madrid)

Resumen. En este artículo queremos realizar un pequeño resumen de lo que es


un gestor de contenidos y cómo funcionan, ya que actualmente estos sistemas
son usados por todo tipo de usuarios, desde pequeñas empresas y sencillos
blogs, hasta grandes corporaciones y medios de comunicación para la creación
de sus sitios web. Veremos una comparativa de los gestores de contenidos más
utilizados en la actualidad y presentaremos el CMS más utilizado actualmente,
WordPress, cuyas cifras de uso son una garantía de calidad y le sitúan como
una apuesta segura e inteligente.

Palabras clave: CMS, WordPress, Widgets, Plugins, Drupal, Joomla!

1 Introducción

L Un sistema de gestión de contenidos o CMS (Content Management System) es un


programa que permite crear una estructura de soporte (framework) para la creación y
administración de contenidos, principalmente en una página web, por parte de los
administradores, editores, participantes y demás roles. Consiste en un interfaz que
controla una o varias bases de datos donde se aloja el contenido del sitio web. El sis-
tema permite manejar de forma independiente el contenido y el diseño, de esto modo,
es posible manejar el contenido y darle cualquier diseño distinto al sitio web sin tener
que darle formato al contenido de nuevo, además de permitir la fácil y controlada
publicación en el sitio a varios editores.
Los primeros sistemas de administración o gestión de contenidos fueron desarrollados
por organizaciones que publicaban una gran cantidad de contenido en Internet, y ne-
cesitaban de continuas actualizaciones, como revistas en línea, periódicos y publica-
ciones corporativas. La evolución de internet hacia portales con más contenido y la
alta participación de los usuarios directamente, a través de blogs y redes sociales, han
convertido a los gestores de contenidos en una herramienta esencial en internet, tanto
para empresas e instituciones como para particulares. Hoy en día existen sistemas
desarrollados en software libre y no libre. En ambos casos es necesaria una implanta-
ción para adaptar el gestor de contenidos al esquema gráfico y funcionalidades desea-


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

das. Para ciertos gestores existen muchas plantillas disponibles que permite una senci-
lla implantación de la parte estética por parte de un usuario sin conocimientos de
diseño. Los paradigmas de este caso son WordPress y Joomla, gestores sobre los que
hay una gran cantidad de desarrolladores de extensiones (módulos, complementos,
plugins…etc) y plantillas.

2 Cómo funciona un gestor de contenidos

Por definición, el gestor de contenidos es una aplicación informática usada para crear,
editar, gestionar y publicar contenido digital multimedia en diferentes formatos. El
gestor de contenidos genera páginas web dinámicas interactuando con el servidor web
para generar la página web bajo petición del usuario, con el formato predefinido y el
contenido extraído de la base de datos del servidor. Esto permite gestionar, bajo un
formato estandarizado, la información del servidor, reduciendo el tamaño de las pági-
nas para descarga y reduciendo el tiempo de gestión del portal respecto a un sitio web
estático, en el que cada cambio de diseño debe de ser realizado en todas las páginas
web, de la misma forma que cada vez que se agrega contenido tiene que maquetarse
una nueva página HTML y subirla al servidor web.
Un sistema de gestión de contenidos siempre funciona en el servidor web en que está
alojado el portal. El acceso al gestor se realiza generalmente a través del navegador
web y se puede requerir el uso de FTP para subir el contenido.
Cuando un usuario accede a una URL, se ejecuta en el servidor esa llamada, se selec-
ciona el esquema gráfico y se introducen los datos que corresponden de la base de
datos. La página se genera dinámicamente para ese usuario, el código HTML final se
genera en esa llamada.

Ilustración 1: Funcionamiento de un CMS


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

3 Comparativa de los gestores de contenidos más usados

Los principales sistemas de gestión de contenidos en la actualidad son Drupal,


Joomla! y WordPress.
Cuando una empresa piensa en crear la web corporativa o de presentación de su nego-
cio, aparece la duda de cuál será la mejor opción a la hora de elegir un buen CMS
para llevar a cabo el proyecto. Para tomar la decisión debemos tener en cuenta aspec-
tos como requisitos y necesidades del cliente, facilidad de gestión, accesibilidad y
usabilidad, optimización en SEO y mejor eficiencia en tiempo de dedicación. Vamos a
conocer un poco más a fondo las características de cada uno ellos….

3.1 WordPress

Desde que wordpress comenzó su andadura como gestor de blogs ha evolucionado


mucho, y ya es habitual verlo en algunas de las mayores webs del mundo. La belleza
de WordPress radica en cómo está programado. Es admirable todo de lo que es capaz
en tan poco código. Además, está escrito con extrema sencillez, y perfectamente co-
mentado y documentado, por lo que resulta muy fácil de entender. No en vano, su
lema es el código es poesía.
Esto hace que una web construida con WordPress funcione con fluidez incluso en el
servidor de alojamiento más económico, y por supuesto, los buscadores aman la senci-
llez, por lo que es el mejor en lo que a posicionamiento en buscadores se refiere. La
otra gran ventaja de WordPress está en su facilidad de gestión. No es necesario em-
plear más de una hora en formar a un cliente, y es tan intuitivo que salvo contadas
excepciones no surgen dudas posteriores.

3.2 Joomla!

Joomla! Tuvo un hueco hace un par de años, cuando WordPress todavía se quedaba
corto para todo lo que fuera más que un blog. Sin embargo, considerando las posibili-
dades actuales de WordPress, ahora ni siquiera resulta serio considerar Joomla! Como
alternativa.
El error de Joomla! Está en su concepción. Pretende permitir que cualquiera con po-
cos conocimientos técnicos pueda hacer casi todo lo que se proponga desde el panel
de control y a golpe de ratón, y claro está, es imposible. Esto, ha llevado a un código
caótico, que convierte en un infierno la existencia del programador que pretende im-
plementar un diseño o funcionalidad a medida. Eso por no hablar de los constantes y
graves fallos de seguridad (sobre todo sus extensiones) o los problemas y dificultades
que acarrean algunas actualizaciones. No dispone de documentación alguna, asi que
todo se basa en mucha prueba y error y visitas a foros poblados de respuestas de
pseudo-informáticos a menudo más perdidos que el que llega buscando ayuda.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

3.3 Drupal

Drupal es algo más que un CMS. Como Joomla!, también se creó para permitir la
construcción de casi cualquier tipo de funcionalidad. Pero a diferencia de Joomla!, no
han diseñado un interminable panel de control con millones de opciones que preten-
den controlar cada detalle del diseño. Aunque trabajar con Drupal requiere más in-
formación que hacerlo con otros CMSs, merece mucho la pena: está bien programado,
bien documentado y cuenta con una comunidad grande y actica.
Para webs con muchas funcionalidades a medida, con una compleja gestión de tipos
de usuarios o con gran volumen de información, Drupal es la opción indiscutible.
Drupal es muy popular entre webs de administraciones públicas o universidades

4 ¿Por qué Wordpress?

En el siguiente gráfico podemos ver que WordPress es la preferencia de más del


64% de las web basadas en un CMS, seguido por Joomla! Con casi un 11% y por
Drupal con algo más del 9%. El siguiente en la lista, Blogger, solo cuenta con un
3,4%.

Ilustración 2: Usos de los CMS en la actualidad

Cada uno tiene sus pros y sus contras, pero WordPress tiene un éxito especial por
las siguientes razones:

• Es software libre y abierto, es decir, no sólo es gratuito sino completamente


configurable y modificable, no sólo en sus opciones, sino también en su núcleo.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

• Dispone de la mayor comunidad en internet de entre todos los CMS, que jun-
to a la continua interacción con sus creadores, hacen posible la existencia de una in-
mensa cantidad de temas y plugins, tanto gratuitos como de pago, para mejorar el
aspecto y funcionalidades de nuestro sitio web.
• Su entorno de administración es extremadamente sencillo e intuitivo, lo que
facilita el traspaso de trabajo de administración a los clientes.
• La instalación de WordPress es de las más sencillas de realizar entre los ges-
tores de contenidos disponibles. Incluso encontrarás en los proveedores de hosting de
calidad, opciones para instalar WordPress con unos pocos clicks de ratón. Ni siquiera
será necesario preocuparse por crear la base de datos, pues durante el proceso de
instalación se creará sola. También WP nos da la libertad para actualizar nuestro sitio
sin necesidad de conocimientos de programación, ni que seas un experto en la web.
Con una mínima inversión en aprender el sistema seremos capaces de hacer funcionar
la máquina. Luego, dependiendo de las circunstancias y necesidades, siempre podre-
mos profundizar más y sacarle todo el provecho que wordpress ofrece. La curva de
aprendizaje de WP es de las más sencillas que existen entre los gestores de contenido.
• Al igual que ocurre con temas y plugins, su enorme comunidad hace posible
las continuas mejoras de seguridad tanto en el CMS como sus diferentes añadidos, lo
que lo convierte posiblemente en el CMS más seguro del mercado.
• Aunque existen CMS específicos para gestión de tiendas online o gestión de
cursos, mediante adaptaciones podemos convertir fácilmente wordpress para satisfacer
estas necesidades.
• En el pasado, los CMS no estaban diseñados pensando en el posicionamiento
en buscadores. Más bien al contrario, pues al principio no había mucho “feelin” entre
buscadores y gestores de contenidos como WordPress. Actualmente si existe ese Fee-
ling entre WordPress y los buscadores. WP está actualmente diseñado pensando ex-
presamente en “gustar” a los buscadores como Google, Bing y otros. Se pueden crear
URLs amigables, etiquetar cada artículo escrito con palabras clave, y muy importante,
hay plugins específicos que optimizan la web para posicionamiento.
• Ya confían en él algunas de las empresas más importantes del planeta, y lo
que le resulta funcional y seguro a empresas del nivel de la CNN o The New York
Times.
Además, mencionar que WordPress se puede usar para múltiples servicios:

• Presencia para empresas de todo tipo.


• Directorios de distintos tipos.
• Revistas de cualquier tema.
• Galería de fotos, videos y audios.
• Foros y herramientas de discusión.
• Blogs personales o de algún tema.
• Portafolio para fotógrafos y diseñadores.
• Venta de productos con e-commerce.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Ilustración 3: Posibles usos de WordPress

5 Conclusiones

El objetivo de este artículo es demostrar que WordPress es uno de los CMS más utili-
zados en la actualidad para el desarrollo de webs y blogs, y el motivo es claro, su
facilidad de uso y las posibilidades que ofrece, no sólo en el desarrollo, sino también
en el mantenimiento de los sitios hace que con el paso del tiempo se haya convertido
en una herramienta líder en el diseño de sitios web.
Si a esto le añadimos que no son necesarios grandes conocimientos de programa-
ción para poder mantener los sitios creados con WordPress y que un cliente pueda
administrar sus contenidos y herramientas fácilmente, se hace evidente que si se nece-
sita crear un sitio web, escoger WordPress es una apuesta segura a corto, medio y
también parece que a largo plazo

Referencias

1. [monje malo 2012 ]“Monje Malo” URL:http://mongemalo.es/wordpress-joomla-


drupal-mejor-gestor-contenidos-cms/ [accedido agosto 2013]
2. [teldenet 2013] “teldenet” URL: http://teldenet.net/porque-wordpress// [acc.sep2013]
3. [La venta online.net 2013] “La venta online.net” URL: http://laventaonline.net/por-
que-wordpress/ [accedido septiembre 2013]
4. [Wikipedia 2013] “Wikipedia” URL: http://es.wikipedia.org/wiki/WordPress [ac-
cedido julio 2013]
5. [Wikipedia 2013] “Wikipedia”
http://es.wikipedia.org/wiki/sistema_de_gestion_de_contenidos/ [accedido jun 2013]


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Sistema de Realidad Aumentada en la mejora del


Logro de Capacidades Cognitivas en Estudiantes del
Segundo Grado de la Institución Educativa Nuestra
Señora del Carmen del Distrito de Jauja

José Loya1, Miguel Córdova1


1
Área de Tecnología – Universidad Continental Virtual. Universidad Continental
1980 Av. San Carlos (Huancayo)
{1, mcordova@continental.edu.pe}

Resumen: Este artículo tiene como objetivo aplicar la Realidad Aumentada


como una herramienta Educativa (material didáctico) y evaluar su impacto en la
mejora del logro de capacidades cognitivas en estudiantes del segundo grado de
educación superior en la Institución Educativa Nuestra Señora del Carmen.

Palabras Clave: Realidad Aumentada, Smartphone, capacidad


cognitiva.

1. Estado del Arte

La investigación se realizó buscando dar a conocer que la tecnología de realidad


aumentada está empezando a ser usada en diferentes campos profesionales y va ser
utilizada en gran medida en la educación según el Informe Horizon [1], además en la
actualidad existe una deficiencia en el logro de las capacidades de los estudiantes ya
sea por una falta de aprovechamiento, retención, compresión o de las habilidades con
las que cuentan los estudiantes de las diferentes áreas que estudian en la actualidad y
teniendo en cuenta que existe poco aprovechamiento de los recursos informáticos y/o
tecnológicos por parte de los docentes, en pocas palabras de la aplicación de las TICS
(Tecnologías de la Información y Comunicación) aplicada en la educación [2].
Históricamente, la realidad virtual ha sido una tecnología que se encontraba al alcance
de unos pocos. Sin embargo, en los últimos años ha ido mejorando y ofreciendo
nuevas posibilidades de uso. Debido al avance de esta tecnología y gracias a que los
dispositivos móviles disponen de mayor capacidad de procesamiento e incluyen
cámaras digitales, sensores de última generación y sistemas de localización global, ha
sido posible desarrollar sistemas más precisos y asequibles de realidad aumentada. [3]

La revista ACCESO [4] trata de una tecnología que combina imágenes reales
captadas por una cámara web y diseños virtuales creados por una persona, las cuales


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

deben tener los siguientes componentes: Monitor de computadora, Cámara Web,


Software y códigos.

Según Cadillo [5] en su proyecto de investigación presentada al Premio


Internacional Educared, titulada “Uso de la Realidad Aumentada en la Compresión
de la Proceso Histórico: Libro Conociendo el Museo Arqueológico de Ancash”, en
donde busca alcanzar el objetivo de generar el desarrollo de la competencia de
comprensión del proceso histórico local y regional de los niños del Cuarto Grado de
Educación Primaria a través de una estrategia mixta de visita al Museo Regional de
Ancash y la construcción de un libro de Realidad Aumentada.

Alcarria [6] en su proyecto de fin de carrera presentado en la Universidad


Politécnica de Valencia de la Escuela Técnica Superior de Ingeniería Informática;
titulada “Desarrollo de un Sistema de Realidad Aumentada en Dispositivos Móviles”,
en la cual llega a la siguiente conclusión “que el desarrollo de escenas con objetos
virtuales lo más realistas en el sistema de realidad aumentada para dispositivos
móviles en el cual exista una interacción entre el usuario y la escena creada a tiempo
real, sin que exista un retraso visual perceptible para la persona que esta
interactuando”.

Voicu [7] en su proyecto de fin de carrera presentado a la Universidad di Roma;


titulada “Tesi di Laurea in Grafica e Progettazione Multimediale”, describe cómo se
puede utilizar esta tecnología para potenciar los libros de la biblioteca de la Escuela
de Arquitectura. El papel tiene mucha vida y su recorrido es largo; no nos dejemos
asustar por los nuevos inventos; siempre se puede utilizar lo mejor de cada tecnología
para sacar el máximo partido a la mezcla.

Garrido [8] en un artículo titulado “Técnicas de Interacción para Sistemas de


Realidad Aumentada” en el que llega a la siguiente conclusión Se han realizado
diferentes trabajos sobre técnicas de interacción muy relacionados entre sí. Este
documento realiza una clasificación de las mismas, teniendo en cuenta el elemento
principal de interacción en cada una de ellas: interfaces tangibles asociadas a objetos
reales, interacción basada en el movimiento corporal y la utilización de dispositivos
de bajo coste para la interacción. También se tienen en cuenta aquellos sistemas que
combinan varias técnicas de interacción.

Celaya [9], en su trabajo para optar el grado de Máster en Comunicación Digital


Interactiva presentada a la Universidad de Vic a la Facultad de Empresa y
Comunicación; titulada “Aplicación de Realidad Aumentada para Dispositivos
Móviles Destinada a Espacios Culturales”, en la cual llega a la siguiente conclusión:
La Realidad Aumentada aporta datos adicionales clave para entender de una forma
visual y en 3D que impacta al usuario más que un texto.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

2. Generalidades

El problema planteado es ¿Cómo influirá el Sistema de Realidad aumentada en la


mejora del Logro de capacidades cognitivas en los estudiantes del Segundo Grado de
nivel secundario de la Institución Educativa Nuestra Señora del Carmen? y como
problemas específicos ¿Cuáles son los recursos digitales más efectivos para el Logro
de Capacidades Cognitivas de los estudiantes del Segundo Grado de nivel secundario
de la Institución Educativa Nuestra Señora del Carmen? y ¿Qué tecnología es la más
apropiada para mejorar el Logro de Capacidades Cognitivas de los estudiantes del
Segundo Grado de nivel secundario de la Institución Educativa Nuestra Señora del
Carmen?

En base a los problemas se planteó los siguientes objetivos que se buscaba alcanzar
en la investigación: Objetivo General es determinar la influencia del Sistema de
Realidad Aumentada en la mejora del logro de capacidades cognitivas en los
estudiantes del segundo grado de nivel secundario de la Institución Educativa Nuestra
Señora del Carmen y como objetivo específico: determinar los recursos digitales más
efectivos para mejorar el Logro de Capacidades Cognitivas de los estudiantes del
segundo grado de nivel secundario de la institución educativa Nuestra Señora del
Carmen y determinar la tecnología más apropiada para mejorar el Logro de
Capacidades Cognitivas de los estudiantes del segundo grado de nivel secundario de
la institución educativa Nuestra Señora del Carmen.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

La hipótesis general es el Sistema de Realidad Aumentada influye en la mejora del


logro de capacidades cognitivas en los estudiantes del segundo grado de nivel
secundario de la Institución Educativa Nuestra Señora del Carmen.

Hipótesis específicas: la aplicación de videos con el Sistema de Realidad Aumentada


permite mejorar el Logro de Capacidades Cognitivas en los estudiantes de nivel
secundario de la Institución Educativa Nuestra Señora del Carmen y la aplicación de
la tecnología Web es la más adecuada para el Logro de Capacidades Cognitivas de los
estudiantes del segundo grado de nivel secundario de la institución educativa Nuestra
Señora del Carmen.

La investigación busca principalmente dar a conocer a la realidad aumentada como


una herramienta que puede ser usada en las clases como material didáctico con la
finalidad de que los estudiantes puedan participar más, además de que pueda
interactuar con esta herramienta a tiempo real.

Las dificultades que se encontró durante la aplicación son: la compatibilidad del


programa Adobe Flash Builder 4.6 Premium con el Plugin Flash Player de los
navegadores, problemas en cuanto a la aplicación de la textura de los modelos en 3D
y compatibilidad con el Software que se utilizara con los dispositivos móviles y el
mismo celular.

3. Materiales y métodos

Para la investigación se aplicó el tipo de investigación Cuasi Experimental y para


desarrollar las aplicaciones se utilizaron las siguientes herramientas:

9 Adobe Flash Builder 4.6 Premium: Es el programa usado para la elaboración y


adaptación del código usado para la elaboración de las interfaces del sistema de
realidad aumentada. La versión usada del programa es la última que se encuentra
en el mercado pero por problemas económicos se utilizó la versión de prueba o
trial la cual cumple con nuestras necesidades.
9 Autodesk 3ds Max Design 2010: Este programa fue usado para la creación de los
diseños en 3 dimensiones para la presentación de la clase de realidad aumentada.
La versión que se está usando no es la última que se encuentra en el mercado,
pero su selección se realizó porque esta versión tiene una mayor compatibilidad
con el “plugin Open COLLADA 3ds Max 1.3.1 x86” para la exportación de los
modelos para que sean usados en el sistema de realidad aumentada.
9 Blender: Programa para el desarrollo de algunos modelos que se utilizaron en la
aplicación de la realidad aumentada para el área de Ciencia Tecnología y
Ambiente.
9 ARToolKit Marker Generator: Programa utilizado para la captura de los patrones
con extensión .Pat el cual ha sido utilizado para la aplicación del sistema de
realidad aumentada. Además existe una opción de web de este programa y a la
vez un poco más complejo ya que nos permite configurar otras opciones; para


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

poder acceder a la opción online se debe ingresar a la página web


http://flash.tarotaro.org/ar/MGO2.swf
9 Plugin COLLADA: Plugin instalado dirigido a la programa Autodesk 3ds Max
Design 2010 para la exportación de los diseños realizados en dicho programa
para la posterior utilización de estos en el sistema de realidad aumentada ya que
se el sistema es compatible con archivos con extensión .DAE en cual corresponde
a dicho plugin.

Las herramientas empleadas para la aplicación móvil fueron:


9 Layar: Este es el programa utilizado para la presentación de las clases de realidad
aumentada usando un video.
9 AR para Android: Programa utilizado para la presentación de los modelos en 3D
para la clase.

A continuación se muestran los marcadores impresos que se utilizó en la clase. La


realidad aumentada consiste en colocar los patrones frente a la cámara para que los
patrones sean reconocidos; para el caso de la aplicación web se usará la página creada
con ese propósito y para el caso del móvil se usaran los aplicativos antes
mencionados.

Patrón Descripción

Patrón usado para mostrar la información del curso tanto para


la web como para los dispositivos móviles.

Usado para mostrar la información de la clase en forma de


imágenes.

Usado para mostrar la información de la clase en forma de


videos.

Figura 1 Lista de patrones usados en la clase


Para la aplicación se realizó el reconocimiento de los patrones con la herramienta
que se mencionó anteriormente. El reconocimiento que se hace de los patrones
mediante el programa ARToolKit Marker Generator que es para el aplicativo web ya
que para el aplicativo móvil usando la herramienta Layar se carga el documento para
poder empezar a insertar los documentos que contienen los patrones.

Para la aplicación del sistema de realidad aumentada, si se desea usar el aplicativo


web solo se necesita entrar a la página web que ha sido creada usando los requisitos


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

anteriormente mencionados y para la parte del móvil tener instalado el aplicativo en


nuestros celulares.

Figura 2 Fotografías de la Aplicación


Para la investigación se utilizó como población objetivo a los estudiantes del área
de Ciencia Tecnología y Ambiente de la Institución Educativa Nuestra Señora del


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Carmen del nivel secundario distrito de Jauja, nuestra población accesible fueron las
estudiantes del Segundo Grado del área de Ciencia Tecnología y Ambiente de la
Institución Educativa Nuestra Señora del Carmen del nivel secundario del distrito de
Jauja y nuestra fueron las estudiantes del Segundo Grado del nivel secundario de las
secciones “B” y “F” del área de Ciencia Tecnología y Ambiente de la Institución
Educativa Nuestra Señora del Carmen del distrito de Jauja. También debemos tener
en cuenta que el segundo grado posee un promedio de 30 alumnas por sección.

4. Resultados

Para la investigación se trabajó con dos grupos uno control y la otra experimental
las cuales fueron evaluadas de la misma manera; en uno se dictó la clase usando la
enseñanza tradicional mientras que en el otro se dictó la clase usando la realidad
aumentada, después de la aplicación se obtuvieron los siguientes resultados:

Figura 3 Variación de Notas del Grupo Control


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Figura 4 Variación de Notas del Grupo Experimental

De los resultados obtenidos se puede apreciar que en la Figura 4 existe incremento


en cuanto al número de estudiantes que aprobaron al comparar la pre y la pos prueba a
diferencia del grupo control Figura 3 (se aplicó la enseñanza tradicional), donde se
aprecia un disminución en cuanto al promedio de los estudiantes; esto nos indica que
la aplicación de la realidad aumentada en la enseñanza nos brinda buenos resultados y
una mejor respuesta de los estudiantes cuando se les imparte la clase. En cuanto al
recurso más adecuado para la aplicación de la realidad aumentada fueron las
imágenes y la tecnología más aceptada y apropiada para la aplicación de la realidad
aumentada fue la móvil por su mayor manipulación.

5. Discusión

Apoyó las conclusiones que obtuvieron algunos autores Cadillo [5], Alcarria [6],
Voicu [7], Garrido [8] ya que la realidad aumentada permite una mayor interacción de
los participantes tanto para aplicaciones para computadoras así como en los
dispositivos móviles. Pero con el autor Garrido [8], hay una discrepancia ya que
actualmente los dispositivos de bajo coste tienen problemas en cuanto a la aplicación
de realidad aumentada, ya sea por el software o hardware.
De acuerdo a los recursos empleados en la aplicación de la realidad aumentada, los
resultados apoyaron la conclusión del autor Celaya [9], ya que la investigación nos
llevó a la misma conclusión, que la realidad aumentada es mejor usarla con imágenes
que con videos por la interactividad

Referencias

1. The New Media Consortium. Informe Horizon [Documento Digital].; 2010.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

2. Romero M, Gómez W, Lafitte M, López N, Munayco D, Yupanqui D. Tecnologías de


Información y Comunicación en Educación. 5ta Nota. 2012 Febrero; I(26): p. 10-37.
3. Pombo HL. Analisis y Desarrollo del Sistema de Realidad Aumnetada. 2010..
4. Boletín del Instituto Argentino de Normalización y Certificación. ¿Qué es la Realidad
Aumentada? Acceso El camino hacia la competividad. 2011 Junio; 2(4).
5. Cadillo León JR. Educación, Sistemas, Redes y TICs. [Online].; 2011 [cited 2012 Julio
14. Available from: HYPERLINK "http://conocimientoysistemas.wordpress.com/"
http://conocimientoysistemas.wordpress.com/ .
6. Alcarria Izquierdo C. Desarrollo de un Sistema de Realida Aumentada en Dispositivos
Moviles. 2010..
7. Voicu S. Tesi di Laurea in grafica e Progettazione Multimadiale. Universidad di Roma;
2007.
8. Garrido R, Gracia -Alonso A. Técnicas de Interacción para Sistemas de Realidad
Aumentada. ; 2006.
9. Celaya Bertolin S. Aplicación de Realidad Aumentada para dispositivos moviles
Destinada a Espacios Culturales. 2011.


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

Sistema experto para el diagnóstico de trastornos


depresivos según el tipo de síntoma en pacientes del
Hospital Daniel Alcides Carrión de la Ciudad de
Huancayo

Fanny Castillo1-2, Miguel Córdova1-2. José Tapia1


1
Facultad de Ingeniería. E.A.P. de Ingeniería Informática y de Sistemas. 2Area de
Tecnología de Universidad Continental Virtual.
Universidad Continental 1980 Av. San Carlos (Huancayo)
{u2007200616@continental.edu.pe, mcordova@continental.edu.pe,
u2007200616@continental.edu.pe}

Resumen. En este artículo se presenta un sistema experto en EXSYS PRO


basado en reglas con encadenamiento hacia atrás que permita diagnosticar el
tipo de trastorno depresivo que padece el paciente, el cual se basa en 18 reglas,
7 choices, 13 qualifiers y 1 variable. Esta detección podrá ser realizada por el
psiquiatra o médico de familia que realice el test a un paciente o por los propios
pacientes que deseen auto-diagnosticarse. Los resultados que podrá visualizarse
son: Trastorno Bipolar I, Trastorno Bipolar II, Trastorno Ciclotímico, Trastorno
Depresivo Mayor, Trastorno Distímico, Trastorno por Sustancias y No
Depresión. Cada uno de éstos tendrá asociados unos síntomas que provocarán el
diagnóstico diferencial entre ellos. El sistema experto será una herramienta
efectiva, para que los usuarios puedan interactuar de una forma fácil y rápida.
Palabras clave: Reglas de Encadenamiento hacia atrás, Trastornos depresivos,
Sistema experto.

1 Introducción

Hoy en día según la página El Universal De10.mx, en su artículo “10


enfermedades del siglo XXI” nos dice que ahora las personas sufren de padecimiento
de origen psicológico y social, como la depresión y el estrés, estos sobresalen
entre los más peligrosos del nuevo milenio. Se suman al cáncer, al sida y a la diabetes.
Donde una depresión es una enfermedad que afecta al organismo y al estado de
ánimo. Además interfiere con la manera de pensar y concebir la realidad.
Mientras que una tristeza pasajera puede ser considerada una reacción normal ante un
acontecimiento negativo, la depresión tiende a prolongarse por más tiempo.

Uno de los problemas más frecuentes según el diario La Primera en el Hospital


Daniel Alcides Carrión es la demora en la atención a los pacientes en las consultas


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

médicas, siendo las quejas más frecuentes que se presentaron fueron por problemas
de atención, especialmente por la demora en los consultorios externos
incluyendo el área de salud mental, donde hay abandono de parte de algún
psicólogo o por mucho tiempo de espera hacia el mismo especialista.

2 Estado del Arte

Se revisó varios estudios sobre sistemas expertos para diagnóstico, entre los
antecedentes de ello podemos citar a: Dones, M. (2005) en su tesis: Sistema Experto
para el Diagnostico de Trastornos Depresivos: Nos dice que la finalidad de este
proyecto, es el desarrollo de un Sistema Experto cuyo objetivo es el diagnosticar de
forma correcta el tipo de trastorno depresivo de un paciente [1]. Esta aplicación
detecta cuándo el paciente o usuario tratado padece un trastorno depresivo, basándose
en la sintomatología asociada. Este sistema de detección tratará de observar al
paciente durante un tiempo, conservando su diagnóstico anterior, lo que ayudará a
llevar un seguimiento. Esta información quedará a disposición del usuario de la
aplicación para que pueda servir de utilidad en el futuro por si en algún momento
desea realizar este tipo de consulta.

Aruni, S. (2008) en su tesis: “Sistema Experto para el Diagnóstico y Tratamiento


de Enfermedades Neurológicas Prevalentes”. Nos plantea un modelo de sistema
experto que permite realizar la identificación del tipo y grado de parálisis facial
además el tiempo de pronóstico de recuperación [2]. Para ello la autora Aruni diseña
el sistema experto que cuenta con las siguientes características: los síntomas del
pacientes consideradas variables de entrada, una base de hechos que almacene
síntomas particulares, una base de conocimientos representadas por reglas de
producción formalizadas por predicados que contienen el conocimiento del experto
neurólogo, un motor de inferencia que obtiene conclusiones a partir de hechos o
reglas de producción por medio del encadenamiento hacia atrás y estrategia de
búsqueda por profundidad con retroceso, y finalmente la variables de salida(grado de
parálisis facial, tipo de recuperación).

3 Metodología

Entrevista: Para desarrollar este sistema se entrevistó a un Experto en la materia,


se le realizó un conjunto de preguntas luego lo evaluamos para poder crear la solución
adecuada. A partir de esta entrevista se muestra la siguiente representación del
conocimiento mediante una red de inferencia:

Descripción de CHOICES (objetivos):


1. Trastorno Bipolar I
2. Trastorno Bipolar II


$FWDVGHO9&RQJUHVR,QWHUQDFLRQDO$7,&$+XDQFD\R 3HU~

3. Trastorno Ciclotímico


4. Trastorno Depresivo Mayor
5. Trastorno Distímico
6. Trastorno por Sustancias
7. No Depresión

Para cada objetivo elaboramos las correspondientes redes de inferencia:

Fig. 1 Trastorno Bipolar I

Trastorno Bipolar I: Síntomas asociados al Trastorno Bipolar I que hemos tenido


en cuenta para diagnosticarlo:

 Antecedentes de trastornos depresivos


 Pérdida o aumento de apetito
 Síntomas de cansancio o fatiga
 Pérdida de concentración
 Manía leve

Trastorno Bipolar II Síntomas asociados al Trastorno Bipolar II que hemos


tenido en cuenta para diagnosticarlo:
 Antecedentes de trastornos depresivos.
 Pérdida o aumento de apetito.



También podría gustarte