PROTOTIPO DE ROBOT DE SERVICIO PARA GUIADO DE
PERSONAS POR VISION
Abel Martinez, Houcine Hassat
abmarmarCetsid.up
DISCA -
Resumen
Bn el presente artéculo se presenta un prototipo de
robot de servicio para trabajar en entornos hospi-
talarios. Bn concreto, el robot es capaz de reco-
rnocer a los pacientes mediante reconociméento fa-
cial, para posteriormente acompaiiarlos a la con-
sulta donde van a recibir el tratamiento, El reco-
nocimiento facial se consigue con la téenien POA
0 Bigenfaces. Bl sistema dispone de un gencrador
de mapas que registra los obsticulos presentes en
el entorno para realizar el guiado.
Palabras clave: Robots de servicio, visién, reco-
nocimiento facial, guiado.
1. INTRODUCCION
Un robot de servicio ¢s todo aquel robot enya fun-
cidn es la de realizar servicios para ayudar a perso-
nas u otros robots [2]. Quedan excinidos por tanto
los robots disefiados para trabajar en produecién,
Dentro del amplio eampo de los robots de servicio,
than aparecidoen los times afios diferentes robots
con la misién de realizar servicios para las perso~
Uno de los primeros robots: méviles «i
consiguié entrar en el mercado doméstieo como
clectrodoméstico fue el robot aspiraclor Roomba,
que emperé a comercializar la compaiiia Robot
2002 [4)[6]. Otro ejemplo de robot de servicio es el
Bie-Dog [LI], desarrollado por Boston Dinamies y
DARPA en 2008, que es capa de transportar una
carga de 150kg 0 avanzar por pendientes de hasta
385° de inclinacién. Por otro lado, en el sector de
Ja medicina estn surgiendo avances en los iltimos
os{t), como por ejemplo cl robot de intervencio-
nes quinirgicas Da Vinci. Otros robots se utilizan
¢n los hospitales para transportar materiales tales
como medicamentos. ‘También existen exoesquele-
tos destinados a la recuperacién de personas con
lesiones, o para ayudar a caminar a personas ma-
yyores o con lesiones permanentes,
El euidado de Tas personas mayores es uno de los
campos mas investigados en robstica en los viti-
mos aiios, mas todavia. cuando el envejecimiento,
de Ia poblacién espafiola es un hecho notable [9
Por otra parte, las previsiones de inversién de la
Actas do las 20EXV Jomadas de Aut
Carlos Domingues, Pedro Lépex
os, {hinsein, earlosd, plope
Universitat Politéenica de Valencia
Unién Europea en este tipo de robots nes confir-
man que el empleo de robots de servicio es una ten-
dencia al alza que resulta interesante investigar. Es
por estos motivos que en este articulo se presen-
ta una prucha de concepto de un robot de servi-
cio para aplicaciones hospitalarias. Los potenciales
usuarios de la aplicacién son personas mayores que
visitan las consultas externas de un centro hospi-
talario. La aplicacién que se desea evaluar cs la
do acompaniamionto de personas mayores que nor-
‘malmente se desorientan. Estas personas ya tienen
cita, y ol sistema sabe a qué consulta deben acu-
dir yen qué momento, Mediante la deteceién del
paciente y su posterior reconocimiento por visién
artificial, el robot consulta la base de datos donde
se hallan los datos de loealizaciéa de la consulta
de destino,
B] presente articulo se organiza como sigue. En la
socciGn 2 se describe la aplicacién y en la seccién 3
se presenta la plataforma del robot. En la seccién
4 se introducen las modificaciones realizadas a la
plataforma original. Las secciones 5 y 6 presentan
Jas pruebas y algunas conclasiones respectivamen-
te,
2. APLICACION
La Figura 1 muestra una image
robot
{el prototipo del
Figura 1: Robot. X-80 Pro
ve de usuario
e se encuentra el ro
La aplicaciéin enenta con una
con la. que se pode ver dén«bot o qué funcién esta desempefiando. También es
posible enviar nuevas érdenes al robot, as{ como
detenerlo y manejarlo manualmente.
Una de las tareas que se puede ordenar al robot es
la de esperar a los pacientes citados en la entrada,
reconocerlos visualmente a su llegada, acercarse a
ellos e identificar eval es su funcién en el hospital,
invitarles a que le sigan y guiarles hasta su con-
sulta comprobando que no pierde a sus asistidos.
Para realizar la funcién anterior en un entorno se-
miestructurado, con personas y obstviculos mévi-
les, debe mantener tun mapa del espacio de navegs
cién ¢ implementar comportamiontos de evitacién
do colisiones y biisqueda de caminos. La Figura 2
mestra al robot acompaiando a un usuario.
Figura 2: Robot acompafiando a usuario,
Aunque el enfoque de la aplicacién consiste en que
el robot acompafie @ pacientes en entornas hos-
pitalarios, se podria adaptar el robot para, por
cjemplo, atencién al piiblico en ferias o recepcién
de clientes en oficinas.
PLATAFORMA DEL ROBOT
EE robot elegido para montar el prototipo es la
plataforma robética XS0Pro del fabricante Dr. Ro-
hot. Dicho robot cuenta con miiltiples sensores de
rango que le permiten conocer los obstaculos mas
corcanos a él. Tiene dos tipos de sonsores de rango,
6 sensores do ultrasonidos que pueden medi hasta
$ motros de distancia y 7 sensores de infrarrojos
con um aleance de SO centimetros. También cuenta
e la pre
sencia de personas, Bl robot dispone, ademas, de
dos vodifcadores rotatorios dgitales de 1.200 pu
sos por revolucién acoplados a Ins ruedas. Cuenta
también con diferentes sensores de voltajee inten
2 sensores piroeléctricas que detectan
Actas do las XV Jomadas de.
sidad, inclinémetros, etc. Esta plataforma podria
no ser Ia més indicada para su uso en ambientes
hospitalarios, debido a sus dimensiones ¥ aspecto,
ppero ha permitido validar la aplicacién en si, a la
par que comprobar los componentes software que
so requiere combinar en la aplicacién,
El movimiento del robot se consigue gracias a 2
motores de corriente continua de 12V que actiian
dircetamente sobre 2 rucdas de 17.8 em. La pla-
taforma robética dispone de uma eémara colocada
en el extremo de un brazo robstico, lo que le per-
tite inclinarse vertical y horizantalmente.
Bl robot dispone de diferentes médulos para in-
teractuar con el usuario: tiene micréfono y alta-
voz para grabar y reproducir audio continuamen-
te, También tiene una pantalla LCD monoeromo
de 128 x 64 pixeles. Por iltimo, el usuario pu
enviar sefiales al robot utilizando un mando a dis
tancia,
EI robot utiliza In Arquitectura de Computacién
Distribuida Dr. Robot. En esta configuracién, In
‘computacién se realiza fuera del robot. Esto sig-
nifica que tanto los actuadores (motores y sorvo-
motores) como los sensores (de rango, de inclina-
cidn, codificadores rotatorios, ete.) estén contro-
Iados por un procesador digital de seiial (DSP)
{que se encarga de sus acciones de contol y lectu-
rade sus valores, respectivamente. Por otra parte
Ta computacidn de alto nivel se Teva a cabo en el
PC o servidor que controla el robot. La comunica-
cidn entre el PC y el robot se realiza mediante una
‘conexiGn inakmbrica WLPL El robot y el PC pue-
len intercambiar acciones de control y obtener las
medidas de los sensores hasta 10 veces por segun-
do, La camara inalimbrica Trendnet TV-IP672WI
Figura 3: Arquitectura
se monta sobre la plataforma del robot para ofre-
cer una mayor calidad de las image
explicaré mis adelante, en la seecidn 4. Para qu
cl ordenador pueda tener acceso a las imagenesque envia la camara, ambos deben estar conecta-
dos a la misma red. En la Figura 3 se pueden ¥
las conexiones de los tres equipos.
4. MODIFICACIONES SOBRE
LA PLATAFORMA ORIGINAL
4.1. Incorps de camara
So ha afiadido una cimara inalimbrica al sistema
para realizar el reconocimiento facial, Dicha céima
ra cuenta con transmisién de datos WEFT capa
de transmitir hasta 30 imégenes por segundo, con
una calidad de 1.280 x 800 pixeles.
EL fabricante de la cémata oftece diferentes solu
ciones para acoder a las imégenes tomadas por el
ispositivo. En nuestro caso, se accede a las hinge
res utilizando la dizeceién IP de la camara. Se
utiliza la libresfa openCV tanto para la toma de
Iimsgenes como para el reconoeimiento faeial. Para
poder utilizar la libreria openCV en el programa
do control, quo ests escrito en C7, se ha utiliza
do Ia libreria. emguCV. La libreria emguCV es un
“wrapper” o un envoltorio que permite utilizar las
fanciones de la libreria openCV en lenguajes tipo
NET
4.2. Desarrollo del software robot de
EI motivo principal por el cual se ha programado
el robot en lenguaje CY es porque la libreria de
funciones que ofrece el fabricante esta exerita en
lenguaje. El uso de la librerfa del fabrican
permite un rapido arranque en la programaci
de aplicaciones. El problema es que impide ol ac.
cso a herramient.as de cédigo abicrto disponibles
cn otros lenguajes, como por ejemplo utilizando
el middleware ROS. Por ello en el futuro se plan:
tea la migracién del cédigo a este middleware para
nadir funcionalidades al robot.
En la interfaz do usuario que se aparece on la Fi
gura 4 se encuentran las herramientas necesarias
para el control del robot. En primer lugar, en la
pestalia Reconocimiento se pueden alladir pacien
tes a la base de datos para que el robot pueda
reconoverlos, §
desde diferentes dngulos, el nombre del paciente y
la consulta en la que debe recibir tratamiento. En
la pestafia de Control del robot podemos llevar a
afiaden 4 imagenes del paciente
+ Control manual del robot. Utilizando los
botones disponibles en el interfaz, s° puede
desplazar al robot manualmente, Esto resulta
itil para realizar labores de mantenimiento
Explorando
Figura 4: Interfax de usuario
como, por ejemplo, ajustar la posicién del ro-
bot
Explorar. Cuando se pulsa cl botén explo-
rar, el robot inicia un reconocimiento del en-
tomo: el robot gencra un mapa de ocupacién
que utiliza para posicionarse en el entorno.
Adomds este mapa se guarda en un are!
al apagar el robot, por lo que se podra reuti-
lizar cuando sea reiniciado,
Vigilar. La accién de vigilancia os la que el
robot realiza en la mayor parte de su tiempo.
Cuando se pulsa el botén Controlar, el robot
empieza a recibir pacientes y acompaiarlos a
su destino,
Para poder realizar Ia aceién de vigilancia, se
utiliza ol algoritmo de deteccién. El algoritmo
de deteccién se ha implementado combina
do diferentes dispositivos. La primera parte
de la detecciin se realiza con los sensores pi.
roeléctricas del robot. Cuando se ha detecta-
do que el robot tiene una persona delante, se
activa la cdmara. El algoritmo de reconoci
miento [10][12] utiliza el método de reconoe
iento Bigenfaces o PCA (15) [17] para deter
inar si el paciente que ha detoctado el robot
ests o no en In base do datos.
ara el recono-
cimiento de las caras se utiliza un eddigo libre
Mamado FaceRoePro [5] que utiliza el frame-
work NET y ha sido adaptado para funcionar
cn la presente aplicacién,4.3. Comportamientos implementados en
el robot
Se han implementado una serie de comportamies
tos del robot. que se utilizan en los distintos modes
de funcionamiento deseritos anteriormente.
Figura 5: Sensores de rango
= Vigilar. Se pretence que el robot espere al
paciente en el punto de vigilancia. Cuando el
robot esti en este punto activa los sensores
de deteccién de personas Py Q de la ign
ra 5, En el momento en que los sensores de-
tectan que hay una persona delante se activa
1 software de reconoeimiento para ver si: no-
ceesita ser acompanada a algyin tratamiento,
Entonces, sila persona se encuentra en Ia ba
se de datos, cl robot la acompanaré hasta la
consulta donde debe recibir ol tratamiento, y
por iiltimo volveré a su punto de vigilancia.
El robot evita los obstculas calculando rutas
‘amino del punto de
Vigilancia a Ta consulta como en el de regee-
so. Cuando el robot acompagia a un paciente
aa la consulta, el camino se g¢
dinémica. El camino esté formade por put
tos por los que el robot puede pasar segiin six
mapa de ocupacién, Pero el robot. ve
ia punto si puede llegar al punto siguiente,
En el caso de que no pueda aceeder al punto
siguiente, el robot generar un camino difo-
rente, Se afiadiri un nuevo obstiiculo al mapa,
do ocupacién tanto si se trata de una persona,
ode una puerta, por ejemplo, Pero este pun-
to tendri baja confianza hasta que cl robot
pase por la zona en repetidas ocasiones ¥ cl
obstculo permanezea en el mismo lugar.
alternativas tanto en el ¢
wera de forma
= Scguimiento de pared. El comportamiento de
seguimiento se ha programado para que el ro-
Dot siga las paredes por la izquierda, Para se
gir la pared se utilizan los tres sensores de la
derecha del robot, sensores Jy K ultrasoni-
dos y sensor O infrarrojos en ia Figura 5. El
control utiliza dos de los tres sensores para
mantener Ia distancia de seguridad a la pa-
rod. También so utilizan los sensores I ¢ I de
ultrasonidos y los A, B, C y D do infrarro-
jos para detcctar los obsticulos de enfrente
Elrobot gira a la izquicrda cuando encuentra
obstaculos enfrente [8}
= Acompaiiar pacientes. En el comportam
to de acompatiar al paciente, el robot utiliza,
In informacién guardada en cl mapa de ocu-
pacién y Ia de los sensores para acompaiiar
f los pacientes a las consultas, Por un lado,
utiliza In informacién guardada en el mapa
para calcnlar el camino a seguir, Por otro In-
do, al iniciar el camino, el robot controle por
tuna parte que el paciente le sign y, por otra
parte, que no se detecten personas 1 objetos
méviles en el camino. Si el robot se aleja del
paciente, disminuye la velocidad o se detie-
no. En cambio, si detecta obstculos en el ca-
tino, el robot utiliza el médulo de evitacién,
de obstieulos.
Evitacion de obsticulos. Bl méxulo de evita
de obsticulas se utiliza cuando el robot
Jguienclo un camino. Si el robot detecta
un obstéiculo, En este easo calcula un camino
altornativo rodeando el obsticulo,
4.4. Fusién de datos y mapas
+ Proceso de construecién de mapas. El mapa
se construe tanto para ser utilizade por el
usuario a la hora de introducir los puntos de
Vigilancia y entrada de la consulta, como para
ue el robot pueda posicionarse [14]. BI mapa
dde ocupacién se obtiene a partir de las lee-
tuuras de los sensores y la posicién del robot.
£1 célenlo de una zona ocupada en el mapa
se obtiene de la ecuncisn (1). La posicién del
objeto Ory se ealeula com la posicién del ro-
hot con respecto al punto de origen de! mapa
elobal Rey més la posicién del obstéculo de-
tectado con respocto a la posicién del robot.
La posicién del robot se caleula por odometria
cn funcién do las vueltas previas que han rea-
lizado las ruedas que imprimen el movimiento
al robot. La posicién del objeto con respecto
alzobot depend do la posicién del sensor con
respecta al centro del robot Say y la medida
del sensor depende de la posicién del obje-
especto a la posicién del sensor May
a (2). La posicién del sensor depende
ntacién del robot Jy de la posicién
Inicial del sensor s2y, como ilustra la ecuacién
Actas do las 20CXV Jomadas de Automata, 2 0 seplantie 6 204, alana(3).
Ory = Hay + Dey (1)
Dey =Sey + May (2)
Sey — | Coslte) Sentr) @
Sen(0-) Cos(0,) | °*
Fusién de datos. Bn este caso el rabot dispone
de dos tipos de sensores con caracteristicas di
forentes. Hs necesario un criterio de seleccién
de las medidas tomadas par los sensores, con
cl fin de maximizar la calidad del mapa to-
mado por el robot. En conereto, para afiadir
‘un nuevo obsticulo, se aceptaran las medidas
que se encuentran en la zona més precisa del
En el ambiente en el que se mueve el robot,
sus sensores del robot podrfan afiadir nuevos
obstculos en précticamente infinites puntos
del espacio del plano XY. Con el motivo de
tener un nrimero limitado de obstaculos, se
ha implementado una funcién que consiste en
que, antes de afladir un nuevo obsticulo al
mapa de ocupacién, el robot comprueba que
no existe ningiin obstéculo a una distancia
inferior un umbral. En el caso de que se
dotecte un obsticulo previo a una distancia
inferior al umbral, so aumentaré la confianza
en cl obstculo anterior en lugar de aitadir un
auevo abstaculo.
Posicionamiento en el entorno, Bl robot utili
za los datos del mapa de ocupaciéin para eo-
rregir errores acumulados. De este modo, si
wlica al robot que se encuentra a
tuna distancia de una pared, pero en la base
de datos la pared est a una distancia supe-
ror, ol control determinaré que es la posieién
dol robot Ia que se debe corrogir, en Ingar de
aiadir los obstiiculos correspondientes a una,
nueva pared a la mapa de oeupacisn,
el sensor
Posicionamiento por visién. El control del ro-
bot utiliza la visin artificial para rectificar la
posicién y orientacién del robot. Después de
tomar imégenes del entorno, el robot extrae
Jas marcas que le pueden servir para posicio-
narse en el futuro: aristas de pilares, marcos,
de puertas, zécalos, etc. Cuando en. sucesi
vas iteraciones el robot pase por las mismas
coordenadas, extraeré nuevamente las marcas
dol entorno, compensando si es necesario st.
posietén en funcién de la difereneia entre las
marcas de ambas fotografias.
Interaccién con el paciente, La convensac
entre el paciente y el robot esta dividida en
tres fases, En la primera fase, el robot se pre
senta al paciente enviando el siguiente mensa-
je de audio: “Buenos dias seiior usuaria, soy
clrobot de servicio del hospital, ;desea que le
acompate a la consulta X?". En la sogunda
fas de la comunicacién, el robot reconoce las,
palabras “sf” y “no” dol paciente, ¢ inicia 0
cancela ¢] acompaiiamiento a la consulta. Fi-
nalmento, en la tercora faso, el robot controla
cl proceso durante el acompanamiento ¥ fina-
liza el servicio si el paciente decide no soguir
al robot o Ilega a la consulta.
5, EVALUACION PRELIMINAR
Bn las pruchas que se han realizado sobre cl proto-
tipo se han evaluado dos médulos. Por una parte,
s0 ha probado Ia fiahilidad dol médulo de recono~
cimiento facial y por otra parte se ha probado el
robot en una aplicacién piloto de atencién a
cientes en ambientes hespitalarios,
5.1. Experimento 1, Reconoeimiento
faci
Para evaluar el fi
‘conocimiento facial, se ha obt
no-detecciones que cometia el siste
usuario que sf estaba registeado en la base de
datos. Bn las imnégenes guardadas
datos, se han tomado imégenes desde diferentes
ingulos y posiciones. Por ello cl sistema resulta
‘iis robusto frente a cambios de orientacién en Ta
loteccién de los pacientes. La aplicacién redimen-
siona las imiigenes, las convierte a escala de grises
¥ just sus niveles. Este procedimiento se realiza
para evitar problen iento relacio-
nados con cambios en la iumi
to, s¢ ha disefiado el siguiente procedimiento para
realizar In evalnacién.
onamiento del médulo de 1
ido el niimero de
‘a ante un
la base de
* Sc aiiaden las fotografias del usuario a la base
de dates.
+ El usuario se posiciona frente al detector en.
diferentes posiciones y orientaciones.
+ Sc abtienen las deteceiones y no-deteeciones.
La Figura 6 muestra los resultados obtenidos. El
porcentaje de aciertos en la deteecién de los usua-
ios aumenta a medida que aumenta la cantidad
de imagenes del usuario en Ta base de datos. El
site
65% cuando se ha cargado una nica ima
la base de datos. Cuando se eargan dos imagenes
cl reconocedor acierta mas del 85% de las veoes.
Por iiltimo, cuando se guardan 4 imagenes en la
tiene una tasa de acierto del inferior al
“Actas do las 20CXV Jomadas de Automata, 2 0 seplante 6 204, anehase de datas, Jos resultados de acierto superan el
93% de los casos, lo que significa que el porcen-
taje de crrores es inferior al 7%. A partir de los
‘all
ALL
Figura 6: Resultados reconocimiento.
resultados presentadas se desearta por el mon
to el uso de una tinica imagen para detectar a los
pacientes. Los resultarlos con dos imfigenes en In
hase de datas son bastante mejores, pero para ol
desarrollo del segundo experimento se tomarin 4
imagenes de ead paciente.
5.2, Experimento 2. Acompaiiamiento de
pacientes
En este experimento se ha probado la fiabilidad
del robot en la tarea de acompatiar pacientes a
las consultas donde deben recibir ol tratamiento,
Para ello so plantea un escenario en al que hay
4 consultas donde acompatar a los pacientes. Ca-
da paciente tiene asignada una consulta; y el robot
‘cuenta con tina base de datos de 4 imagenes de ea-
dda paciente. El total de pacientes es de 50. Elexpe-
rimento se ha levado a eabo en el segundo piso del
cificio del DISCA. En este edificto se encuentran
los despachos de algunos profesores y laboratorios
de pricticas. El robot podia por tanto encontrar
personas por los pasillos. Se tena en cuenta que no
se cerraran las puertas para aeceder a las con
tas, En la Figura 7 se muestra un esquema del es-
cenario de la aplicacién. Bn primer lugar, el robot
hha de detectar al paciente mediante los sensores y,
posteriormente, reconocerlo a través de la cémara
para acompafiarlo asi a la consulta correspondien-
te. En la Figura 8 se mucstran los resultados de
la prueba con los pacientes acompaiiados correc-
tamente, marcados en azul. Los pacientes acom-
paiados a una consulta incorrecta estan marca-
dos en verde, Se ha comprobado que este error se
debe a quo, en la fase de deteccién, el robot ha
confundido el rostro de un paciente con al de otro,
En rojo se observa Ia tasa de fall en el reoonaci-
tnto de un paciente (pacientes no detectades).
En la grafica se puede ver e6ino el robot es eapaz
de reconover y acompaiiar con éxito al 84% de los
pacientes, tiene problemas para reconocer al 10%
de los pacientes y tiene errores de confusién de
Consultas de atencién
Robot
Cola de pacientes
PLA
P2,1.
P3, 2
P4, 3.
Figura 7: Escenario experimento 2.
pacientes on el 6% de Ins oeasiones.
10%
Figura 8: Resultado acompaiiamiento.
Analizando los resultados de este experimento se
observa que ha aumentade ligeramente el niimero
do pacientes no detectados debido al mayor niime-
ro de personas que entran en juego en la escena.
‘A. pesar de ello, el robot sigue acompanando de
forma correcta al 84% de Jos usuarios. En un fu-
turo, so prové mejorar estos resultados aumentan-
do el miimero de muestras en la base de datos de
imagenes y dol nrimero de perfiles de cada pacion-
to, asi como aumentar el ntimero de fotogramas
ppor segundo y las prestaciones del procesador pa-
ra sopartar dicho cémputo. Oteo de los aspectas
que se desea analizar son los problemas sociales
que puedan surgir como, por ejemplo, personas
{que no desean acompaiiar al robot. o que lo aban
onan cuando se ha iniciado el servicio.
Actas do las 20€XV Jomadas de Automata, 2. seplantie 6 204, ana6. CONCLUSIONES
En este articulo hemos presentado una aplicaci
de un robot de servicio para su uso em instalacio-
nes hospitalarias,
Se han descrito los componentes que forman l
prototipo, la plataforma robética, la cémara de
vigilancia con conexién inaldmbrica y el software
de control de la aplicacién. ‘Yambién se han expli
cado las modificaciones realizadas sobre la plata:
forma robética original, asi como sobre el software
de control
El desarrollo de este prototipo nos ha permitide
comprobar la viabilidad de la aplicaeidn, intogray
do las diferentes herramientas software y hardware
que se han planteado en este artieulo,
‘También hemos realizado pruebas sobre el funcio-
rnamiento del robot de servicio, tras las cuales po-
demos avanzar en el desarrollo de la aplicacién,
por ejemplo en la realizacién de una prueba piloto
en un entorno hospitalario,
Agradecimientos
Este articulo ha sido financiado en parte por ol
proyecto PALD/2012/325 del Vicerrectorado de
Investigacién, Innovacién y ‘Transferencia de la
Universitat Polittenica de Valencia,
Referencias
[1] Arroyo, C. (2005). Cirugia robdtien. Blemen
tos: Ciencia y Cultura, 12(68), 1317.
[2] Barrientos, A. (2002). Nuevas aplicaciones de
Ia robstica, Robots de servicio, Avanees en
robética y visién por computador. Cuenca,
Ediciones Castilla-La Mancha, 288,
[3]
Blanco, D., Ansari, $. A., Castején, C., Boa-
da, B. L., y Moreno, L. E. (2005). MAN-
FRED: Robot Antropomérlico De
Fiable Y Seguro para operar En Entornos Hu-
manos. Revista ericana de Ingenieria
Mocanieca, 9(3),
i
Forliza, J., & DiSalvo, C. (2006, March).
Service robots in the domestic
a study of the roomba vacua
mo. In. Procoodings of the Ist ACM. SIG
CHI/SIGART conference on Human-robot
interaction (pp. 258-265). ACM.
[5] G
A (2011).
srcaleprojectcony/Artieles/299849/Mlipke
face-detection-and-recognition-in-real-ti.
[6] clones, J. L. (2006). Robots atthe tipping
point: the road to iRobot Roomba, Robotics
& Automation Magazine, IEE, 13(1), 76-78
[7] Kam, M., Zhu, X., & Kalata, P. (1997). s
sor fusion for mobile robot. navigation. Pro-
‘coodings of the IEEE, 85(1), 108-119.
Kim, B. (2010). CAN-2: Behaviour-based eo
Ilision avoidance and formation control of
multiple unmanned vehicles. RTO-TR-HFM-
170, NATO Science and Technology Organi-
zation, December 2012,
is
{0] Otero, {., Zunamnogu, M. V., Rodriguez-
Laso, A, Aguilar, M.D., y Litearo, P. (2004).
Volumen y tendeneins dla dependencin aso-
nda. al envejecimiento en la poblncién es
panola. Rev Esp Salud Pabiea, 78(2), 201-
213,
[10] Perez, C., Vicente, M. A., Rernandez, C:
Reinoso, 0, Gil, A. (2008). Aplicncién de
Jos diferentes espacios de color para detecciin
yy seguimiento de carns. Proccedings of XXIV
‘Jornadas de Automatica.
[11] Raibert, M., Blankespoor, K., Nelson, G., &
Playter, R. (2008, July). Bigdog, the rough-
terrain quadruped robot. In Proceedings of
the 17th World Congress (pp. 10823-10825),
[12] Rama, A. y ‘Tarrés, F. (2007). Un nuevo
método para Ia deteccién de earas basado en
integrales: difusas, XIL Simposium Nacional
‘de la Union Cientiiea Internacional de. Ra-
lio,
[13] Rao, B.S. Y., Durrant-Whyte, TL F., &
Sheen, J. A. (1993). A fully decentralized
multi-sensor system for tracking and survei-
ance. ‘The International Journal of Roboties
Research, 12(1), 20-44
[14] ‘Phrun, S. (2003). Learning occupancy grid
maps with forward sensor models. Autono-
mous robots, 15(2), 111-127
[15] ‘Turk, M., & Pentland, A. (1991). Eigenfaces
for recognition. Journal of cognitive neuros-
cience, (1), TES6.
[16] Vera, PS. (1996). Tercera y enarta odad
en Expaia desde la perspectiva de los hoga-
res. Revista Expafola de Investigaciones So-
ciolégicas CIS, 73, 60.
[17] Yang, J., Zhang, D., Frangi, A. F., & Yang,
JY. (2004). ‘Two-dimensional PCA: a new
‘approach to appearance-based face represen
tation and recognition. Pattern Analysis and
Machine Intelligence, TEBE Transactions on,
26(1), 131-187.
‘Actas a a OX Jornada de Ao, 354s 216, Ya