Tendencias de IT
Tendencias de IT
Tendencias de IT
Panorama general
Introducción
Cuando se habla de tendencias, se habla de dirección, y de la posibilidad de que en un futuro, ciertas
tecnologías que todavía no tienen nombre y apellido, alcancen la madurez como para ser comercialmente
viables porque pueden insertarse armónica o revolucionariamente en el mercado del que se trate. Pero
cuando se habla de tecnología de información, entramos en un territorio de fronteras cada vez más amplias y
difusas y de cambios cada vez más frecuentes. Desde la invención del teléfono, hasta la era del fax, pasaron
casi 80 años, mientras que de la del fax a la de Internet pasaron sólo 15 y que desde entonces hasta ahora, las
tecnologías basadas en comunicaciones alámbricas e inalámbricas e Internet, se desarrollaron a una velocidad
tal, que se llegó a acuñar el concepto del año web, el cual dura 3 meses, imprimiéndole al mercado y a los
negocios una dinámica muy especial.
Objetivo
Al término de la unidad, identificarás las tendencias en IT, de acuerdo con las especificaciones del contenido.
Virtualización
Definición
En informática, virtualización se refiere a la abstracción de los recursos de una computadora, llamada
Hypervisor o VMM (Virtual Machine Monitor) que crea una capa de la abstracción entre el hardware de la
máquina física (host) y el sistema operativo de la máquina virtual (virtual machine, guest), siendo un medio
para crear una versión virtual de un dispositivo o recurso, como un servidor, un dispositivo de
almacenamiento, una red o incluso un sistema operativo, donde se divide el recurso en uno o más entornos de
ejecución.
Consolidación de Recursos
La virtualización permite la consolidación de múltiples recursos de TI. Más allá de la consolidación de
almacenamiento, la virtualización proporciona una oportunidad para consolidar la arquitectura de sistemas,
infraestructura de aplicación, datos y base de datos, interfaces, redes, escritorios, e incluso procesos de
negocios, resultando en ahorros de costo y mayor eficiencia.
Ahorros de espacio
La extensión del servidor permanece como un serio problema en la mayoría de los centros de datos
empresariales, pero la expansión del centro de datos no es siempre una opción, con los costos de construcción
promediando miles de dólares por metro cuadrado. La virtualización puede aliviar la tensión mediante la
consolidación de muchos sistemas virtuales en menos sistemas físicos.
Cloud computing
Es un principio se crearon las Mainframe, donde se tenía centralizado el sistema operativo y el acceso de los
usuarios a través de una terminal tonta.
Después surgieron las redes de datos, donde los usuarios con software y hardware local se comunicaban con
otros usuarios con recursos equivalentes a través de un medio de comunicación.
Ahora surge el concepto de Cloud Computing, que se apoya de la virtualización informática, para ofrecer a los
usuarios servicios y aplicaciones a través de Internet en cualquier momento y en cualquier lugar.
Término
Cloud Computing es un término que se define como una tecnología que ofrece servicios a través de la
plataforma de internet. Los usuarios de este servicio tienen acceso de forma gratuita o de pago, todo depende
del servicio que se necesite usar.
El término es una tendencia que responde a múltiples características integradas. Los programas deben estar
en los servidores en línea y puedas accesar a los servicios y la información a través de internet.
Características cloud
Una de las principales características del Cloud Computing es que no hay necesidad de conocer la
infraestructura detrás de ésta, pasa a ser una nube donde las aplicaciones y servicios pueden fácilmente
crecer (escalar), funcionar rápido y casi nunca fallar, sin conocer los detalles del funcionamiento de esta nube.
Este tipo de servicio se paga según alguna métrica de consumo, no por el equipo usado en sí, sino, por
ejemplo en el consumo de electricidad o por uso de CPU/hora. Entre otras características podemos mencionar
las siguientes:
Auto Reparable:
En caso de fallo, el último backup de la aplicación pasa a ser automáticamente la copia primaria y se
genera uno nuevo.
Escalable:
Todo el sistema/arquitectura es predecible y eficiente. Si un servidor maneja 1000 transacciones 2
servidores manejarán 2000 transacciones.
Cloud 2
Regidos por un Acuerdo de Nivel de Servicio (SLA):
Que define varias políticas como: cuáles son los tiempos esperados de rendimiento y en caso de pico, si se
deben crear más instancias.
Virtualizado:
Las aplicaciones son independientes del hardware en el que corren, incluso varias aplicaciones pueden
correr en una misma máquina o una aplicación puede usar varias máquinas a la vez.
Multipropósito:
El sistema está creado de tal forma que permite a diferentes clientes compartir la infraestructura sin
preocuparse de ello y sin comprometer su seguridad y privacidad.
SaaS
Software como un Servicio (SaaS, por sus siglas en inglés).
SaaS se encuentra en la capa más alta y caracteriza una aplicación completa ofrecida como un servicio, en
demanda, vía multitenencia; que significa una sola instancia del software que corre en la infraestructura del
proveedor y sirve a múltiples organizaciones de clientes.
El ejemplo más ampliamente conocido de SaaS es Salesforce.com, pero ahora ya hay muchos más, incluyendo
las Apps Google que ofrecen servicios básicos de negocios tales como el e-mail. Por supuesto, la aplicación
multitenencia de Salesforce.com ha precedido la definición de cómputo nube, Salesforce.com ahora opera en
más de una capa de nube con su ya puesto en marcha Force.com, un ambiente de desarrollo de una aplicación
compañera (companion application), o plataforma como un servicio.
PaaS
Plataforma como un Servicio (PaaS, por sus siglas en inglés).
La capa del medio, o PaaS, es la encapsulación de una abstación de un ambiente de desarrollo y el arquetipo
es una imagen Xen (parte de Servicios Web Amazon) conteniendo una pila básica Web (por ejemplo, un distro
Linux, un servidor Web, y un ambiente de programación como Pearl o Rugby). Las ofertas de PaaS pueden
proveer para cada frase del software desarrollo y prueba, o estas pueden estar especializadas alrededor de
cualquier área en particular, tal como la administración del contenido.
Los ejemplos comerciales incluyen Google App Engine, el cual sirve aplicaciones de la infraestructura Google.
Servicios PaaS tales como estos pueden proveer una gran cantidad de flexibilidad pero puede ser restringida
por las capacidades que están disponibles a través del proveedor.
IaaS
Infraestructura como un Servicio (IaaS, por sus siglas en inglés).
IaaS se encuentra en la capa inferior y es un medio de entregar almacenamiento básico y capacidades de
cómputo como servicios estandarizados en la red.
Servidores, sistemas de almacenamiento, conexiones, enrutadores, y otros sistemas son concentrados (por
ejemplo a través de tecnología de virtualización), para manejar tipos específicos de cargas de trabajo: desde el
procesamiento en batch hasta el aumento de servidor/almacenamiento durante las cargas pico.
El ejemplo comercial mejor conocido es Amazon Web Services, cuyos servicios EC2 y S3 ofrecen cómputo y
almacenamiento esenciales (respectivamente). Otro ejemplo es Joyent cuyo producto principal es una línea de
servidores virtualizados los cuales proveen una infraestructura en demanda altamente escalable para manejar
sitios Web, incluyendo ricas aplicaciones Web escritas en Ruby en Rails, PHP, Python y Java.
Los Datos
Beneficios
Integración probada de servicios Web
Por su naturaleza, la tecnología de Cloud Computing se puede integrar con mucha mayor facilidad y rapidez
con el resto de sus aplicaciones empresariales (tanto software tradicional como Cloud Computing basado en
infraestructuras), ya sean desarrolladas de manera interna o externa.
Obstáculos y precauciones
Privacidad de los datos
Si los datos no están del todo seguros ni siquiera en los propios centros de datos corporativos, el peligro
aumenta cuando se dejan en manos de la nube. Además hay que tener en cuenta que muchos países obligan a
que los datos de sus ciudadanos sean guardados dentro de sus territorios nacionales. Sin embargo, en el
modelo cloud computing los datos pueden residir en cualquier lugar, sin que el cliente sea consciente de su
ubicación geográfica.
Seguridad
“Como entornos heterogéneos y abiertos, se han de reforzar las medidas de seguridad contra amenazas
externas y la corrupción de los datos”, advierte Juan Manuel Rebés. En este sentido, Xabier Ormazábal
recuerda la necesidad de que los proveedores sigan las mejores prácticas en encriptación y securización física
y lógica, garantizando también altos niveles de disponibilidad, accesibilidad y escalabilidad. Además, en
Salesforce.com realizamos auditorías exhaustivas de nuestros sistemas con empresas externas que garantizan
nuestra conformidad con los estándares de ISO 27001, SysTrust y SAS 70 Type II. Así mismo, publicamos el
estado de nuestros nodos en tiempo real en http://trust.salesforce.com para garantizar la transparencia y
confianza de todos nuestros clientes. Por otra parte, garantizamos el cumplimiento de las normativas
referentes a las leyes de protección de datos de todos los países en los que operamos.
Licencias de software
El modelo típico de licenciamiento del software corporativo no siempre se adapta bien al mundo del cloud
computing, donde una aplicación podría estar corriendo sobre un elevado número de servidores. Por ello,
según Juan Manuel Rebés, se producirá un proceso de maduración que llegará por sí mismo, según
evolucionen los modelos de programación actuales hacia formas más cooperativas.
Aplicaciones
Para que las aplicaciones funcionen en el nuevo modelo, han de ser escritas de modo que puedan ser divididas
entre múltiples servidores. Y como no todas están preparadas para ello, las empresas se ven obligadas a
reescribirlas.
Interoperabilidad
Es necesario crear estándares universales que garanticen la interoperatividad entre servicios, algo que ahora
no ocurre. Es importante que se creen estándares universalmente aceptados, que no se reproduzcan las
fracturas que el mundo de la informática ha ido viendo generación a generación entre estándares
incompatibles, afirma Rebés.
Cumplimiento informativo
¿Qué sucede cuando los auditores quieren certificar que la empresa está cumpliendo las regulaciones
normativas y la aplicación en cuestión está corriendo en la nube? Este es un problema todavía sin solución.
SLA
Hoy no tiene mucho sentido confiar a un tercer las aplicaciones de la empresa si no se regula el cumplimiento
de acuerdos de nivel de servicio (SLA) que garanticen un determinado rendimiento.
Monitorización de red
Otra cuestión que permanece sin respuesta es cómo hacer un instrumento de la empresa, la red y las
aplicaciones en escenarios cloud. ¿Qué tipos de herramientas de monitorización de redes y aplicaciones se
requerirán?
Oportunidades de Mercado
El flamante mercado de Cloud Computing ofrece oportunidades para un amplio grupo de proveedores y
suministradores de tecnología de múltiples perfiles. Grandes consolidados de las TI convencionales y del
mundo Web, así como un número creciente de startups, empiezan a disputarse compitiendo y aliándose un
segmento de la demanda que ve en la nube una opción atractiva. Según Forrester Research, el mercado de
Cloud Computing acoge fundamentalmente dos tipos de agentes: enablers y proveedores de servicios. Los
“enablers” aportan las infraestructuras subyacentes del modelo, focalizándose por lo general en áreas
tecnológicas como virtualización y automatización del centro de datos. Es el caso de firmas como IBM,
VMware/EMC, Red Hat, Intel, Sun, Citrix o Blade Logic, entre otras. Los proveedores de servicio son las
compañías que como: Amazon, Salesforce.com, Rackspace, Google o Microsoft ponen a disposición de los
clientes sus grandes entornos de computación, creados con las plataformas e infraestructuras de los
“enablers” y por lo general siguiendo el modelo SaaS.
Utility computing
Utility computing (computación de utilidad) se define como el suministro de recursos computacionales,
procesamiento y almacenamiento de datos. Este sistema tiene la ventaja de generar bajos costos iniciales en
la adquisición de hardware, ya que estos recursos computacionales son esencialmente rentados. Básicamente,
Utility Computing es un modelo de negocio en el que una empresa subcontrata la totalidad o parte de sus
recursos computacionales a un operador. Se le llama modelo de negocio por que le cliente paga el acceso y
uso de los recursos computacionales a un operador. Se le llama modelo de negocio por que el cliente paga el
acceso y uso de los recursos computacionales que utilice, como un servicio público (agua o electricidad). Los
clientes que realizan procesamiento de datos a gran escala o que están frente a un pico de demanda, pueden
evitar los atrasos que resultan al adquirir y ensamblar físicamente una gran cantidad de computadoras en sus
instalaciones.
Fundamentos Utility
El principio de Utility Computing es muy simple: Una empresa paga a otra empresa de servicios
computacionales. Los servicios pueden incluir alquiler de hardware, espacio de almacenamiento de datos, el
uso de aplicaciones informáticas específicas o el acceso a servidores de procesamiento. Todo depende de lo
que el cliente quiere y lo que la compañía de Utility Computing puede ofrecer.
Recursos
Muchas empresas de Utility Computing ofrecen paquetes de recursos; un amplio paquete podría incluir los
siguientes:
Hardware
Servidores, CPU’s, monitores, dispositivos de entrada y los cables de red.
Acceso a Internet
Incluyendo los servidores Web y la navegación de software.
Acceso a servidores
De procesamiento de una supercomputadora. Algunas empresas tienen fuertes necesidades de
cómputo. Por ejemplo, una empresa financiera puede necesitar para el proceso que cambia con
rapidez los datos obtenidos en el mercado de valores. Mientras que una computadora normal puede
tardar horas para procesar datos complejos, una supercomputadora puede completar la misma tarea
más rápidamente.
Recursos 2
Sistema de grid computing
Un sistema de computación en red, es una red de equipos que ejecutan un software especial llamado
“middleware”. El middleware puede detectar inactividad de CPU de un equipo, lo cual permite que una
aplicación que se ejecuta en otro equipo para tomar ventaja de ella.
Ventajas Utility
Para la mayoría de los clientes, la mayor ventaja de Utility Computing es la conveniencia. El cliente no tiene
que comprar todo el hardware, software y/o licencias que se necesitan para hacer negocios. Muy relacionado
a la conveniencia es la compatibilidad. En una gran empresa con muchos departamentos, pueden surgir
problemas con el software de computación, cada departamento puede depender de software diferente; o los
archivos utilizados por los empleados en una parte de la empresa pueden ser incompatibles con el software
utilizado por los empleados en otra parte. Utility Computing ofrece a las empresas la posibilidad de suscribirse
a un servicio único y el uso del mismo software de toda la organización de clientes. Otra ventaja para los
clientes es que la mayoría de los costos de mantenimiento se convierte en la responsabilidad del proveedor,
no del cliente. El cliente puede portar por confiar en el hardware simplificado (thin client), que es menos
costoso y puede ser más fácil de mantener.
Desventajas
Una desventaja potencial es la fiabilidad. Si una empresa de Utility Computing se encuentra en problemas
financieros o tiene problemas con el equipo con frecuencia, los clientes podían estar aislados de los servicios
por los que están pagando. Esto significa problemas para el proveedor y el cliente, si una empresa de Utility
Computing queda fuera del negocio, sus clientes podrían ser víctimas de la misma suerte. Los sistemas de
Utility Computing también puede ser blanco atractivo para los hacker’s. Un hacker puede acceder a los
servicios sin pagar por ellos o visitar e investigar los archivos del cliente. Gran parte de la responsabilidad de
mantener el sistema seguro corresponde al proveedor, pero algunos de ellos se basa también en las prácticas
de los clientes. Si una empresa no educa a sus trabajadores en los procedimientos de acceso adecuado, no es
difícil para un intruso encontrar maneras de invadir el sistema de una empresa de Utility Computing. Uno de
los retos se enfrentan los servicios de Utility Computing es educar a los consumidores sobre el servicio. La
conciencia de Utility Computing no está muy extendida. Es difícil vender un servicio a un cliente, si el cliente
nunca ha oído hablar de él.
Thin Client
El Thin Client (cliente ligero) es una PC con menos capacidades. Thin Client es una computadora cliente o un
software de cliente en una arquitectura de red cliente-servidor que depende primariamente del servidor
central para las tareas de procesamiento, y principalmente se enfoca en transportar la entrada y salida entre
el usuario y el servidor remoto. En contraste, un cliente pesado hace tanto procesamiento como sea posible y
pasa solamente los datos para las comunicaciones y el almacenamiento al servidor.
Información centralizada
Como la información se encuentra en un solo lugar facilita la realización de backups y evita que se guarden
archivos que no sean del negocio.
Ventajas Thin 2
Facilidad en la gerencia de fallas de hardware
Si un cliente ligero falla, un reemplazo puede ser simplemente colocado mientras el cliente es reparado; el
usuario no será incomodado porque sus datos no están en el cliente
Ventajas Thin 3
Actualización de hardware
Si se requiere actualizar el hardware de una unidad Thin Client, es un proceso relativamente simple agregar
otro componente a un rack de servidor (ya sea energía, procesamiento o almacenamiento), aumentando los
recursos a la cantidad requerida. Las unidades existentes pueden continuar sirviendo junto a la nueva,
mientras que un modelo de cliente pesado requiere que sea reemplazada una unidad de escritorio completa,
resultando en tiempo muerto para el usuario, y el problema de disponer de la unidad vieja.
Menor ruido
El ya mencionado retiro de ventiladores reduce el ruido producido por la unidad. Esto puede crear un
ambiente de trabajo más agradable y más productivo.
Data Center
Un Data Center es un sitio en donde se ubican físicamente equipos de cómputo, servidores, switches,
enrutadores, dispositivos de almacenamiento de datos, distribuidores de carga, racks y otros más. También es
el lugar en donde se llevan a cabo funciones centralizadas de administración, procesamiento, intercambio y
almacenamiento de datos. Estas funciones y equipo proporcionan los recursos necesarios para la prestación
de servicios como Web Hosting, almacenamiento y respaldo y cualquier otra aplicación de negocios. El Data
Center debe asegurar la disponibilidad y seguridad de los recursos de hardware, software y datos ubicados en
él.
Generadores de reserva
La alimentación del data center debe estar respaldada por generadores de respaldo para utilizarse en
caso de que las líneas principales de alimentación fallen.
Clima controlado
Sistemas de enfriamiento y técnicas de construcción que posibilitan una temperatura (20-25 °C) y
humedad reguladas.
Virtualización y consolidación
Utilizar tecnologías de virtualización para consolidar más de una máquina virtual en un solo servidor
físico
Sistemas de seguridad
Los sistemas de seguridad deben ser integrales, desde el acceso al edificio, procedimientos de
intervenciones, seguridad lógica de los datos y aplicaciones, firewalls, etc.
Servicios Data
De manera general un Data Center proporciona servicios de almacenamiento y procesamiento, los cuales son
implementados de acuerdo a la arquitectura que se esté utilizando (la arquitectura depende principalmente
del fabricante de los dispositivos). Desde un enfoque comercial, los Data Center públicos ofrecen una serie de
productos entre los que se incluyen:
Co-ubicación
Web Hosting
Almacenamiento y respaldo de la información
Monitoreo de sistemas
Administración de sistemas
Transmisión de audio/video
Y dependiendo del grao de disponibilidad, el estándar califica a un Data Center en algunos de los siguientes
niveles:
ICREA (ICREA-Std-131-2007)
ICREA (International Computer Room Expert association), es una asociación internacional dedicada a la
certificación de Data Center’s. Las certificaciones se basan en una serie de estándares entre los que se incluye
el TIA-942. ICREA ofrece 5 niveles de certificación:
Nivel 1 QADC (Quality Assurance Data Center)
Nivel 2 WCQA (World Class Quality Assurance)
Nivel 3 S-WCQA (Safety WCQA)
Nivel 4 HS-WCQA (High Security WCQA)
Nivel 5 HSHA-WCQA (High Security High Available WCQA)
Triara Data Center tiene el nivel 5 de certificación
Arquitectura funcional
La arquitectura funcional de un Data Center está determinada por la forma en la cual los dispositivos de
acceso, almacenamiento, procesamiento y de interconexión están relacionados, tanto desde el punto de vista
físico como lógico.
En muchos casos la arquitectura obedece a la planeación y decisiones de los ingenieros encargados del Data
Center, pero también existen propuestas de fabricantes como Cisco, Sun, HP, IBM y otros más, que ofrecen un
portafolio de productos que permiten la implementación de la arquitectura que proponen.
Propuesta CISCO
Desde la perspectiva de Cisco, la meta final de la arquitectura de un Data Center debe ser:
“Proporcionar una infraestructura ágil, que sea capaz de incorporar mejoras sobre la marcha en sistemas de
cómputo, almacenamiento y aplicaciones de red, las cuales permitan a las TI (Tecnologías de la Información)
soportar los procesos de cambio del negocio”.
Utilizando tecnologías de consolidación y visualización, las soluciones del Cisco Data Center permiten convertir
los recursos de cómputo y almacenamiento en un centro de servicio de recursos compartidos, con
componentes estandarizados que pueden, de forma dinámica, agregarse, aprovisionarse y accederse a través
de una red inteligente.
Propuesta SUN
La propuesta de SUN está fundamentada en patrones de diseño recopilados a través de la experiencia en la
construcción de soluciones de Data Center. SUN adapta la arquitectura del Data Center a las necesidades del
cliente, pero en general se pueden ubicar 3 niveles, los cuales se muestran en la siguiente imagen:
SDN
SDN (Service Delivery Networks) es una propuesta modular que permite la creación de arquitecturas
lógicas, mediante la virtualización, que pueden ser desplegadas sobre una arquitectura física. Cada
arquitectura lógica es diseñada para cubrir las necesidades de una carga de trabajo específica es
totalmente escalable y adaptable a los requerimientos que las aplicaciones de negocio demandan.
SOE
El SOE (Standardized Operating Environments) integra el conjunto de servicios y aplicaciones comunes
que son requeridos por una plataforma operativa. SOE puede ser tan específico como para permitir la
ejecución de una sola aplicación o tan genérico como para servir a cientos de aplicaciones.
POD
Un POD (Points of Delivery) es un ambiente optimizado para un cierto tipo de carga de trabajo que
incluye procesamiento (servidores), almacenamiento e interconexión.
La “carga de trabajo” describe los recursos de procesamiento y almacenamiento que una aplicación
necesita para ejecutarse. Normalmente los recursos consumidos son dinámicos, por lo tanto el POD
debe ser escalable.
Operación Data
Una parte importante en la operación de los Data Center es el almacenamiento de la información. Los
sistemas de información requieren que los datos sean accesibles de manera inmediata y que además se
asegure su confiabilidad y disponibilidad. El volumen de los datos incrementa de manera constante conforme
nuevas aplicaciones aparecen en el mercado, este crecimiento ha traído consigo la creación de sistemas de
almacenamiento construidos con arreglos de discos duros o cintas magnéticas cuya capacidad está en el orden
de los Terabytes. El mecanismo utilizado por los servidores de aplicación para leer o escribir en los sistemas de
almacenamiento depende directamente del modelo utilizado, en general existen tres opciones:
DAS
El modelo DAS es utilizado por un servidor trabajando de manera (standalone). DAS se compone de tres
niveles básicos de software:
1. Aplicación
2. Sistema de archivos
3. Controlador de disco
Estos tres elementos normalmente se ubican en una sola entidad física y su interacción hace ver al servidor
como una unidad independiente. El software de aplicación es el encargado de generar las solicitudes de
información (transacciones I/O). El sistema de archivos tiene organizados los datos en archivos y directorios
dentro de las particiones, en las cuales está separado lógicamente el disco o los discos. El controlador de disco
se encarga de ejecutar las acciones de lectura y escritura sobre los sectores físicos en el disco.
NAS
El modelo NAS es posible gracias a las facilidades implementadas en los sistemas de transferencia de archivos
NFS (Network File System), para UNIX, y CIFS (Common Internet File System) para Windows. Estos sistemas
permiten que el sistema de archivos esté localizado o montado de manera remota y accesible a través de la
red, en lugar de residir en el servidor de aplicaciones. En NAS el software de aplicación realiza la solicitud I/O y
la envía a través de la red al sistema de archivos remoto en el servidor NAS, el cual determina la ubicación de
los datos solicitados por la aplicación cliente y envía una solicitud al controlador de disco. El controlador de
disco, obtiene los datos desde el arreglo de discos RAID (Redundant Array of Independent Disks) y los envía al
sistema de archivos del servidor NAS, el cual los transfiere a la aplicación cliente a través de la red.
SAN
De acuerdo a la SNIA (Storage Networking Industry Association): “Una SAN es cualquier red de alto
rendimiento cuyo propósito primario es permitir la comunicación entre dispositivos de almacenamiento y
sistemas de computadoras”. La definición deja abierta la posibilidad de utilizar cualquier tecnología disponible
para la interconexión de los dispositivos, en la actualidad la más común es Fiber Channel. Los dispositivos de
almacenamiento pueden ser de cualquier tipo, por ejemplo: discos, cintas, sistemas RAID (Redundant Array of
Independent Disks) y librerías robotizadas. En una SAN los servidores están físicamente conectados a todos los
dispositivos de almacenamiento, esto permite que distintos servidores compartan las mismas bases de datos
sin necesidad de realizar copias temporales o permanentes de la información.
Contact Center
El término centro de llamadas se refiere a una plataforma tecnológica utilizada por una organización humana,
dentro de la empresa o fuera de ella, que se encarga de asistir a los usuarios, normalmente vía telefónica. Los
centros de llamadas permiten asistir al cliente en lo relacionado con servicios posventa (ASS), soporte técnico,
televentas o al personal de una empresa con respecto al uso de herramientas o la ejecución de tareas. Cuando
se trata de un centro de llamadas dedicado a proveer soporte técnico, se conoce como centro de soporte.
Prácticas
Mejores prácticas en un Contact Center
Las mejores prácticas que conducen a que un Contact Center sea productivo y que represente un punto de
apoyo y no una carga para una empresa, se pueden resumir en las siguientes:
Malas prácticas
La buena operación de un Contact Center puede ser afectada por alguna de las siguientes malas prácticas:
Tecnologías Contac
Las tecnologías que soportan los servicios que brinda un Contact Center se han mantenido en constante
evolución e integración, buscando facilitar la labor de los agentes para lograr mejores niveles de satisfacción
del cliente y en consecuencias mayores ganancias para el negocio. Sin embargo, la operación de un Contact
Center depende principalmente de la gente y los procesos depende principalmente de la gente y los procesos
dejando a la tecnología solo como una herramienta para conseguir los objetivos. En la actualidad la mayoría
de los Contact Center cuentan con algunas de las tecnologías que se listan a continuación:
Conceptos
ANI
ANI habilita la identificación del número del cliente que está llamando al Contact Center, (Caller ID en sistemas
telefónicos tradicionales). ANI permite que el sistema busque y presente al agente información relacionada al
cliente antes de que conteste la llamada. Además es posible establecer procesos de enrutamiento
automatizados que encaminen la llamada a un grupo de agentes especializado.
DNIS
DNIS proporciona información del número que el cliente marcó, esto es importante cuando el Contact Center
utiliza varios números telefónicos y cada número identifica servicios distintos. DNIS permite que el sistema
encamine las llamadas al grupo de agentes apropiado.
DNR
El enrutamiento dinámico es una función permite encaminar de manera apropiada las llamadas de los
clientes. El enrutamiento puede ser a nivel de Contact Center, por ejemplo, cuando un centro recibe las
llamadas durante el día y otro en horario nocturno. Esta función es un servicio que la compañía telefónica
debe proporcionar.
IVR
Los sistemas IVR permiten que el proceso de obtención de información el cliente se automatice, de manera tal
que el cliente interactúe con el IVR, mediante su teclado telefónico, para proporcionar la información
necesaria y en muchas situaciones obtener el servicio deseado sin la intervención del agente. Un IVR puede
adaptarse para habilitar que el sistema reciba la información mediante comandos de voz en lugar del teclado.
ACD
La distribución automática de llamadas es el corazón del Contact Center. Cuando una llamada es recibida, la
función ACD la coloca en un sistema de encolamiento a la espera de que algún agente esté disponible.
Mientras el cliente está en espera, ACD se programa para ofrecer algún mensaje informativo o música de
confort. Además puede encaminar las llamadas al agente con el perfil más adecuado de acuerdo a la
información proporcionada por el cliente.
CTI
La integración de los servicios telefónicos con los sistemas computacionales es fundamental en los Contact
Center actuales. Después de que una llamada es asignada a un agente, este debe contar con la información y
herramientas necesarias para ofrecer un servicio apropiado al cliente. Esto incluye información de cuentas,
historial del cliente, características de productos, precios, simuladores de crédito, etc. Los sistemas CTI ofrecen
a los Contact Center las siguientes ventajas:
IP Contact Center
Los IP Contact Center están fundamentados en la tecnología que permite la transmisión de voz sobre redes IP
(VoIP). La integración de aplicaciones es la razón principal para migrar hacia una solución de IP Contact Center.
Esta integración se consigue gracias a que todos los elementos (terminales, adaptadores, Gateway,
controlador) que participan en una conversación VoIP están conectados a la red IP, al igual que los sistemas de
cómputo e Internet. Además, transportar todas las aplicaciones sobre una red IP finalmente se traduce en una
atención al cliente más completa y adaptable. La imagen ilustra la interconexión de los elementos que
integran esta solución.
Sistemas VoIP
El establecimiento de llamadas VoIP es controlado de manera centralizada por medio de un servidor SIP (IP-
PBX). La comunicación entre el servidor y los terminales de usuario se efectúa mediante el protocolo SIP
(Session Initiation Protocol). Los terminales de usuarios son los dispositivos que inician o reciben una conexión
VoIP. Normalmente los agentes tendrán instalados teléfonos IP o Softphone y las llamadas desde la red
telefónica son adaptadas al entorno IP mediante un Gateway. El conjunto del control centralizado y SIP
permiten que se implementen una serie de servicios telefónicos extras, como el identificador de llamadas,
conferencia, sígueme, etc. Dando lugar al concepto conocido como telefonía IP. Los sistemas de telefonía IP.
Los sistemas de telefonía IP pueden ser de uso privado o estar implementados en redes públicas.
Beneficios VoIP
La solución de IP Contact Center trae consigo una serie de beneficios entre los que se destacan los siguientes:
Reducción de costos
Pueden utilizar el canal que más se les facilite: voz, e-mail, video, mensajes, chat, web call-back, etc.
Reciben un servicio más rápido y eficiente al encaminar su llamada al agente más adecuado
En caso de que la llamada se transfiera de un agente a otro, la transferencia se acompaña con toda la
información relacionada al cliente. Integrando la solución con sistemas CRM el cliente puede recibir un
trato preferencial, clientes premier, oro, etc. Además de que el agente tiene disponible información le
permite anticipar las necesidades del cliente.
VoIP
Mayor retención de agentes
Los supervisores pueden monitorear y grabar a sus agentes para identificar puntos de mejora
La capacitación puede hacerse en línea e incluso atendiendo clientes en sesiones de colaboración entre
supervisor y agente
Al trabajar con más herramientas de comunicación, el agente sale de la monotonía y su trabajo es más
diverso y agradable
El agente puede trabajar desde su hogar
La solución es totalmente escalable
Servicios WEB
Un servicio WEB consiste en una función disponible en un servidor conectado a Internet, la cual se encarga de
ejecutar algún proceso y enviar los resultados a la entidad solicitante, por ejemplo:
Realizar un simple cálculo con unos datos que se le envían como parámetro
Acceder a una base de datos para recuperar un conjunto de registros
Validar la corrección de una información o contrastarla frente a otros datos, etc
Estos servicios proporcionan mecanismos de comunicación estándares entre diferentes aplicaciones, que
interactúan entre sí para presentar información dinámica al usuario. Los servicios WEB están fundamentados
por una serie de estándares publicados por el W3C (World Wide Web Consortium) y apoyados por los
principales fabricantes de tecnología (IBM, Microsoft, etc.). Estos estándares señalan cómo se deben cursar las
peticiones de servicio a servidores remotos, la forma en la cual éstos deben enviar los resultados, y cómo se
deben publicar o dar a conocer los servicios que están accesibles a través de un servidor WEB.
DRP
Un plan de recuperación ante desastres (DRP, Disaster Recovery Plan) es un proceso de recuperación que
cubre los datos, el hardware y el software crítico, para que una organización pueda iniciar de nuevo sus
operaciones a causa de una eventualidad de la naturaleza o humana.
Catástrofes
Fuego
Fallas de energía
Ataques terroristas
Interrupciones organizadas o deliberadas
Sistema y/o fallas de equipo
Error humano
Virus informáticos
Cuestiones legales
Huelgas de empleados
Prevención de desastres
Enviar respaldos fuera de sitio semanalmente para que en el peor de los casos no se pierda más de los
datos de una semana
Incluir el software así como toda la información de datos, para facilitar la recuperación
Si es posible, usar una facilidad remota de reserva para reducir al mínimo la pérdida de datos
Redes de Área de Almacenamiento (SANs) en múltiples sitios son un reciente desarrollo que hace que
los datos estén disponibles inmediatamente sin la necesidad de recuperarlos o sincronizarlos
Protectores de línea para reducir al mínimo el efecto de oleadas sobre un delicado equipo electrónico
El suministro de energía ininterrumpido (SAI)
La prevención de incendios – más alarmas, extintos accesibles
El software del antivirus
El seguro en el hardware
Plan
Para asegurar la continuidad del negocio, es recomendable partir de la siguiente premisa: “Siempre desear lo
mejor y planear para lo peor”. En un buen plan existen diferentes factores que hay que tomar en cuenta.
Los más importantes son:
El árbol telefónico: para notificar todo el personal clave del problema y asignarles tareas enfocadas
hacia el plan de recuperación
Reservas de memoria: si las cintas de reserva son tomadas fuera de sitio es necesario grabarlas. Si se
usan servicios remotos de reserva se requerirá una conexión de red a la posición remota de reserva ( o
Internet)
Instalaciones: teniendo sitios calientes o sitios fríos para empresas más grandes. Instalaciones de
recuperación móviles están también disponibles en muchos proveedores
Trabajadores con conocimiento: durante desastre a los empleados se les requiere trabajar horas más
largas y más agotadoras. Debe haber un sistema de apoyo para aliviar un poco de tensión
Principios
Planeación para la continuidad del Negocio (BCP, Business Continuity Planning) Continuidad del Negocio es un
concepto que abarca tanto la planeación para Recuperación de Desastres (DRP) como la Planeación para el
Restablecimiento del Negocio. Recuperación de Desastres es la capacidad para responder a una interrupción
de los servicios mediante la implementación de un plan para restablecer las funciones críticas de la
organización. Ambos se diferencian de la Planeación de Prevención de Pérdidas, la cual implica la
calendarización de actividades como respaldo de sistemas, autenticación y autorización (seguridad), revisión
de virus y monitoreo de la utilización de sistemas (principalmente para verificaciones de capacidad). En esta
ocasión hablaremos sobre la importancia de contar con la capacidad para restablecer la infraestructura
tecnológica de la organización en caso de una disrupción severa.
Administradores
Frecuentemente los administradores o responsables de los sistemas de cómputo empiezan a tomar en cuenta
la seguridad de su sistema después de haber sido objeto de un ataque, dando como resultado la pérdida de
información, horas de trabajo, incluso dinero. La seguridad en el trabajo es uno de los factores más
importantes que garantizan el crecimiento de la productividad.
Velar por la seguridad física y lógica no es una tarea que se efectúe una sola vez y garantice su eficiencia por
siempre. Para mantener la seguridad se requiere realizar periódicamente tareas preventivas. El
establecimiento de procedimientos y medidas de seguridad están destinados a salvaguardar la unidad
administrativa, el centro de cómputo su estructura física, al personal, sus procedimientos operacionales, la
información y documentación generada contra cualquier evento natural o humano que de forma intencional o
por accidente pueden afectarlos.
Puntos de la tecnología
Proceso de recuperación
Tecnología
Resumen
Cloud Computing es el término que se define como una tecnología que ofrece servicios a través de la
plataforma de Internet. Los usuarios de este servicio tienen acceso de forma gratuita o de pago, todo
depende del servicio que necesiten usar.
El Thin Client (cliente ligero) es una PC cono menos capacidades. Es un software de cliente en una
arquitectura de red cliente-servidor que depende primariamente del servidor central para las tareas de
procesamiento y principalmente se enfoca en transportar la entrada y salida entre el usuario y el
servidor remoto. En contraste, un cliente pesado hace tanto el procedimiento como sea posible y pasa
solamente los datos para las comunicaciones y el almacenamiento al servidor.
Un Data Center es un sitio donde se ubican físicamente equipos de cómputo, servidores, switches,
enrutadores, dispositivos de almacenamiento de datos, distribuidores de carga, racks y otros más.
También es el lugar donde se llevan a cabo funciones centralizadas de administración, procesamiento,
intercambio y almacenamiento de datos.
El término centro de llamadas (Contact Center) se refiere a una plataforma tecnológica utilizada por
una organización humana, dentro de una empresa o fuera de ella, que se encarga de asistir a los
usuarios, normalmente vía telefónica.
Un plan de recuperación ante desastres (DRP, Disaster Recovery Plan) es un prceso de recuperación
que cubre los datos, el hardware y el software crítico, para que una organización pueda iniciar de
nuevo sus operaciones a causa de una eventualidad, de la naturaleza o humana.