Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                
0% encontró este documento útil (0 votos)
29 vistas38 páginas

Tendencias de IT

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1/ 38

Tendencias de IT

Panorama general

Introducción
Cuando se habla de tendencias, se habla de dirección, y de la posibilidad de que en un futuro, ciertas
tecnologías que todavía no tienen nombre y apellido, alcancen la madurez como para ser comercialmente
viables porque pueden insertarse armónica o revolucionariamente en el mercado del que se trate. Pero
cuando se habla de tecnología de información, entramos en un territorio de fronteras cada vez más amplias y
difusas y de cambios cada vez más frecuentes. Desde la invención del teléfono, hasta la era del fax, pasaron
casi 80 años, mientras que de la del fax a la de Internet pasaron sólo 15 y que desde entonces hasta ahora, las
tecnologías basadas en comunicaciones alámbricas e inalámbricas e Internet, se desarrollaron a una velocidad
tal, que se llegó a acuñar el concepto del año web, el cual dura 3 meses, imprimiéndole al mercado y a los
negocios una dinámica muy especial.

Objetivo
Al término de la unidad, identificarás las tendencias en IT, de acuerdo con las especificaciones del contenido.
Virtualización
Definición
En informática, virtualización se refiere a la abstracción de los recursos de una computadora, llamada
Hypervisor o VMM (Virtual Machine Monitor) que crea una capa de la abstracción entre el hardware de la
máquina física (host) y el sistema operativo de la máquina virtual (virtual machine, guest), siendo un medio
para crear una versión virtual de un dispositivo o recurso, como un servidor, un dispositivo de
almacenamiento, una red o incluso un sistema operativo, donde se divide el recurso en uno o más entornos de
ejecución.

Virtual Machine Monitor


Esta capa de software (VMM) maneja, gestiona y arbitra los cuatro recursos principales de una computadora:
CPU, Memoria, Red, Almacenamiento; repartiendo dinámicamente dichos recursos entre todas las máquinas
virtuales definidas en la computadora ventral. De modo que nos permite tener varias computadoras virtuales
ejecutándose sobre la misma computadora física.

Sistema operativo de la máquina virtual (virtual machine, guest)


La máquina virtual en general es un sistema operativo completo que corre como si estuviera instalado en una
plataforma de hardware autónoma. Típicamente muchas máquinas virtuales son simuladas en una
computadora central. Para que el sistema operativo guest funcione, la simulación debe ser lo suficientemente
grande (siempre dependiendo del tipo de virtualización).
Virtualización de plataforma
Esta involucra la simulación de máquinas virtuales. La virtualización de plataforma se lleva a cabo en una
plataforma de hardware mediante un software “host” (anfitrión), que es un programa de control que simula
un entorno computacional (máquina virtual) para su software “guest” (invitado). Este software guest, que
generalmente es un sistema operativo completo, se ejecuta como si estuviera instalado en una plataforma de
hardware autónoma.
Típicamente muchas máquinas virtuales son simuladas en una máquina física dada. Para que el sistema
operativo guest funcione, la simulación debe ser lo suficientemente grande como para soportar todas las
interfaces externas de los sistemas guest, las cuales se pueden incluir (todo esto dependiendo del tipo de
virtualización) los drivers de hardware.
Retos
Índices de utilización más altos
Antes que la virtualización, los índices de utilización del servidor y almacenamiento en los centros de datos de
la empresa típicamente promediaron menos que el 50% (de hecho, del 10% al 15% de los índices de utilización
fueron comunes). A través de la virtualización, las cargas de trabajo pueden ser encapsuladas y transferidas a
los sistemas inactivos o sin uso; lo cual significa que los sistemas existentes pueden ser consolidados así que
las compras de capacidad adicional del servidor pueden ser retrasadas o evitadas.

Consolidación de Recursos
La virtualización permite la consolidación de múltiples recursos de TI. Más allá de la consolidación de
almacenamiento, la virtualización proporciona una oportunidad para consolidar la arquitectura de sistemas,
infraestructura de aplicación, datos y base de datos, interfaces, redes, escritorios, e incluso procesos de
negocios, resultando en ahorros de costo y mayor eficiencia.

Uso/costo menor energía


La electricidad requerida para que funcionen los centros de datos de clase empresarial ya no está disponible
en suministros ilimitados, y el costo está en una espiral ascendente. Por cada dólar gastado en un servidor
hardware, un dólar adicional es gastado en energía (incluyendo el costo de los servidores en función y los
enfriadores). Utilizando virtualización para consolidar, hace posible cortar el consumo total de energía y
ahorrar dinero de una manera significativa.

Ahorros de espacio
La extensión del servidor permanece como un serio problema en la mayoría de los centros de datos
empresariales, pero la expansión del centro de datos no es siempre una opción, con los costos de construcción
promediando miles de dólares por metro cuadrado. La virtualización puede aliviar la tensión mediante la
consolidación de muchos sistemas virtuales en menos sistemas físicos.

Recuperación de desastre/continuidad del negocio


La virtualización puede incrementar la disponibilidad de los índices del nivel de servicio en general y
proporcionar nuevas opciones de soluciones para la recuperación de desastre.

Costos de operación reducido


La empresa promedio gasta $8 dólares en mantenimiento por cada $1 dólar invertido en nueva
infraestructura.
La virtualización puede cambiar el radio de servicio a administración y reducir la total carga de trabajo
administrativo cortando el total de costos de operación.
Ventajas
 Rápida incorporación de nuevos recursos para los servicios virtualizados
 Reducción de los costes de espacio y consumo necesario de forma proporcional al índice de
consolidación logrado (Estimación media 10:1)
 Administración global centralizada y simplificada
 Nos permite gestionar nuestro CPD como un pool de recursos o agrupación de toda la capacidad de
procesamiento, memoria, red y almacenamiento disponible en nuestra infraestructura
 Mejora en los proceso de clonación y copia de sistemas: Mayor facilidad para la creación de entornos
de test que permite poner en marcha nuevas aplicaciones sin impactar a la producción, agilizando el
proceso de las pruebas
 Aislamiento: un fallo general de sistema de una máquina virtual no afecta al resto de máquinas
virtuales
 Mejora de TCO y ROI
 No sólo aporta el beneficio directo en la reducción del hardware necesario, así como de sus costes
asociados
 Reduce los tiempos de parada
 Migración en caliente de máquinas virtuales (sin pérdida de servicio) de un físico a otro, eliminando la
necesidad de paradas planificadas por mantenimiento de los servidores físicos
 Balanceo dinámico de máquinas virtuales entre los servidores físicos que componen el pool de
recursos, garantizando que cada máquina virtual ejecute en el servidor físico más adecuado y
proporcionando un consumo de recursos homogéneo y óptimo en toda la infraestructura
 Alto grado de satisfacción general

Cloud computing
Es un principio se crearon las Mainframe, donde se tenía centralizado el sistema operativo y el acceso de los
usuarios a través de una terminal tonta.
Después surgieron las redes de datos, donde los usuarios con software y hardware local se comunicaban con
otros usuarios con recursos equivalentes a través de un medio de comunicación.
Ahora surge el concepto de Cloud Computing, que se apoya de la virtualización informática, para ofrecer a los
usuarios servicios y aplicaciones a través de Internet en cualquier momento y en cualquier lugar.
Término
Cloud Computing es un término que se define como una tecnología que ofrece servicios a través de la
plataforma de internet. Los usuarios de este servicio tienen acceso de forma gratuita o de pago, todo depende
del servicio que se necesite usar.
El término es una tendencia que responde a múltiples características integradas. Los programas deben estar
en los servidores en línea y puedas accesar a los servicios y la información a través de internet.

Características cloud
Una de las principales características del Cloud Computing es que no hay necesidad de conocer la
infraestructura detrás de ésta, pasa a ser una nube donde las aplicaciones y servicios pueden fácilmente
crecer (escalar), funcionar rápido y casi nunca fallar, sin conocer los detalles del funcionamiento de esta nube.
Este tipo de servicio se paga según alguna métrica de consumo, no por el equipo usado en sí, sino, por
ejemplo en el consumo de electricidad o por uso de CPU/hora. Entre otras características podemos mencionar
las siguientes:

 Auto Reparable:
En caso de fallo, el último backup de la aplicación pasa a ser automáticamente la copia primaria y se
genera uno nuevo.

 Escalable:
Todo el sistema/arquitectura es predecible y eficiente. Si un servidor maneja 1000 transacciones 2
servidores manejarán 2000 transacciones.
Cloud 2
Regidos por un Acuerdo de Nivel de Servicio (SLA):
Que define varias políticas como: cuáles son los tiempos esperados de rendimiento y en caso de pico, si se
deben crear más instancias.

 Virtualizado:
Las aplicaciones son independientes del hardware en el que corren, incluso varias aplicaciones pueden
correr en una misma máquina o una aplicación puede usar varias máquinas a la vez.

 Multipropósito:
El sistema está creado de tal forma que permite a diferentes clientes compartir la infraestructura sin
preocuparse de ello y sin comprometer su seguridad y privacidad.

SaaS
Software como un Servicio (SaaS, por sus siglas en inglés).
SaaS se encuentra en la capa más alta y caracteriza una aplicación completa ofrecida como un servicio, en
demanda, vía multitenencia; que significa una sola instancia del software que corre en la infraestructura del
proveedor y sirve a múltiples organizaciones de clientes.
El ejemplo más ampliamente conocido de SaaS es Salesforce.com, pero ahora ya hay muchos más, incluyendo
las Apps Google que ofrecen servicios básicos de negocios tales como el e-mail. Por supuesto, la aplicación
multitenencia de Salesforce.com ha precedido la definición de cómputo nube, Salesforce.com ahora opera en
más de una capa de nube con su ya puesto en marcha Force.com, un ambiente de desarrollo de una aplicación
compañera (companion application), o plataforma como un servicio.
PaaS
Plataforma como un Servicio (PaaS, por sus siglas en inglés).
La capa del medio, o PaaS, es la encapsulación de una abstación de un ambiente de desarrollo y el arquetipo
es una imagen Xen (parte de Servicios Web Amazon) conteniendo una pila básica Web (por ejemplo, un distro
Linux, un servidor Web, y un ambiente de programación como Pearl o Rugby). Las ofertas de PaaS pueden
proveer para cada frase del software desarrollo y prueba, o estas pueden estar especializadas alrededor de
cualquier área en particular, tal como la administración del contenido.
Los ejemplos comerciales incluyen Google App Engine, el cual sirve aplicaciones de la infraestructura Google.
Servicios PaaS tales como estos pueden proveer una gran cantidad de flexibilidad pero puede ser restringida
por las capacidades que están disponibles a través del proveedor.

IaaS
Infraestructura como un Servicio (IaaS, por sus siglas en inglés).
IaaS se encuentra en la capa inferior y es un medio de entregar almacenamiento básico y capacidades de
cómputo como servicios estandarizados en la red.
Servidores, sistemas de almacenamiento, conexiones, enrutadores, y otros sistemas son concentrados (por
ejemplo a través de tecnología de virtualización), para manejar tipos específicos de cargas de trabajo: desde el
procesamiento en batch hasta el aumento de servidor/almacenamiento durante las cargas pico.
El ejemplo comercial mejor conocido es Amazon Web Services, cuyos servicios EC2 y S3 ofrecen cómputo y
almacenamiento esenciales (respectivamente). Otro ejemplo es Joyent cuyo producto principal es una línea de
servidores virtualizados los cuales proveen una infraestructura en demanda altamente escalable para manejar
sitios Web, incluyendo ricas aplicaciones Web escritas en Ruby en Rails, PHP, Python y Java.
Los Datos
Beneficios
Integración probada de servicios Web
Por su naturaleza, la tecnología de Cloud Computing se puede integrar con mucha mayor facilidad y rapidez
con el resto de sus aplicaciones empresariales (tanto software tradicional como Cloud Computing basado en
infraestructuras), ya sean desarrolladas de manera interna o externa.

Prestación de servicios de talla mundial


Las infraestructuras de Cloud Computing proporcionan mayor capacidad de adaptación, recuperación de
desastres completa y reducción al mínimo de los tiempos de inactividad.

No necesita instalar ningún tipo de hardware o software


Una infraestructura 100% de Cloud Computing. La belleza de la tecnología de Cloud Computing es su
simplicidad y el hecho de que requiera mucha menor inversión para empezar a trabajar.

Implementación más rápida y con menos riesgos


Podrá empezar a trabajar muy rápidamente gracias a una infraestructura de Cloud Computing. No tendrá que
volver a esperar meses o años e invertir millones de dólares antes de que un usuario inicie sesión en su nueva
solución. Sus aplicaciones en tecnología de Cloud Computing estarán disponibles en cuestión de semanas o
meses, incluso con un considerable nivel de personalización o integración.

Gran capacidad de personalización


Algunos profesionales de TI creen equivocadamente que es muy difícil o casi imposible personalizar la
tecnología de Cloud Computing, por lo que no es la elección adecuada para las empresas más complejas.
La infraestructura de Cloud Computing no sólo proporciona útiles funciones de personalización y configuración
de aplicaciones, sino que también conserva las personalizaciones incluso después de las actualizaciones. Y aún
mejor, la tecnología de Cloud Computing es ideal para el desarrollo de aplicaciones que estén en consonancia
con las crecientes necesidades de su organización.

Más opciones para los usuarios comerciales


La tecnología de Cloud Computing permite personalizaciones y generación de infromes de manera directa y
sencilla para los usuarios comerciales, por lo que los profesionales de TI no necesitan emplear la mitad de su
tiempo realizando pequeñas modificaciones y ejecutando informes.
Actualizaciones automáticas que no afectan negativamente a los recursos de TI
Si actualizaciones a la última versión de la aplicación, nos veremos obligados a dedicar tiempo y recursos (que
no tenemos) a volver a crear nuestras personalizaciones e integraciones. La tecnología de Cloud Computing no
le obliga a decidir entre actualizar y conservar su trabajo, porque esas personalizaciones e integraciones se
conservan automáticamente durante la actualización.

Obstáculos y precauciones
Privacidad de los datos
Si los datos no están del todo seguros ni siquiera en los propios centros de datos corporativos, el peligro
aumenta cuando se dejan en manos de la nube. Además hay que tener en cuenta que muchos países obligan a
que los datos de sus ciudadanos sean guardados dentro de sus territorios nacionales. Sin embargo, en el
modelo cloud computing los datos pueden residir en cualquier lugar, sin que el cliente sea consciente de su
ubicación geográfica.

Seguridad
“Como entornos heterogéneos y abiertos, se han de reforzar las medidas de seguridad contra amenazas
externas y la corrupción de los datos”, advierte Juan Manuel Rebés. En este sentido, Xabier Ormazábal
recuerda la necesidad de que los proveedores sigan las mejores prácticas en encriptación y securización física
y lógica, garantizando también altos niveles de disponibilidad, accesibilidad y escalabilidad. Además, en
Salesforce.com realizamos auditorías exhaustivas de nuestros sistemas con empresas externas que garantizan
nuestra conformidad con los estándares de ISO 27001, SysTrust y SAS 70 Type II. Así mismo, publicamos el
estado de nuestros nodos en tiempo real en http://trust.salesforce.com para garantizar la transparencia y
confianza de todos nuestros clientes. Por otra parte, garantizamos el cumplimiento de las normativas
referentes a las leyes de protección de datos de todos los países en los que operamos.

Licencias de software
El modelo típico de licenciamiento del software corporativo no siempre se adapta bien al mundo del cloud
computing, donde una aplicación podría estar corriendo sobre un elevado número de servidores. Por ello,
según Juan Manuel Rebés, se producirá un proceso de maduración que llegará por sí mismo, según
evolucionen los modelos de programación actuales hacia formas más cooperativas.

Aplicaciones
Para que las aplicaciones funcionen en el nuevo modelo, han de ser escritas de modo que puedan ser divididas
entre múltiples servidores. Y como no todas están preparadas para ello, las empresas se ven obligadas a
reescribirlas.
Interoperabilidad
Es necesario crear estándares universales que garanticen la interoperatividad entre servicios, algo que ahora
no ocurre. Es importante que se creen estándares universalmente aceptados, que no se reproduzcan las
fracturas que el mundo de la informática ha ido viendo generación a generación entre estándares
incompatibles, afirma Rebés.

Cumplimiento informativo
¿Qué sucede cuando los auditores quieren certificar que la empresa está cumpliendo las regulaciones
normativas y la aplicación en cuestión está corriendo en la nube? Este es un problema todavía sin solución.

SLA
Hoy no tiene mucho sentido confiar a un tercer las aplicaciones de la empresa si no se regula el cumplimiento
de acuerdos de nivel de servicio (SLA) que garanticen un determinado rendimiento.

Monitorización de red
Otra cuestión que permanece sin respuesta es cómo hacer un instrumento de la empresa, la red y las
aplicaciones en escenarios cloud. ¿Qué tipos de herramientas de monitorización de redes y aplicaciones se
requerirán?

Oportunidades de Mercado
El flamante mercado de Cloud Computing ofrece oportunidades para un amplio grupo de proveedores y
suministradores de tecnología de múltiples perfiles. Grandes consolidados de las TI convencionales y del
mundo Web, así como un número creciente de startups, empiezan a disputarse compitiendo y aliándose un
segmento de la demanda que ve en la nube una opción atractiva. Según Forrester Research, el mercado de
Cloud Computing acoge fundamentalmente dos tipos de agentes: enablers y proveedores de servicios. Los
“enablers” aportan las infraestructuras subyacentes del modelo, focalizándose por lo general en áreas
tecnológicas como virtualización y automatización del centro de datos. Es el caso de firmas como IBM,
VMware/EMC, Red Hat, Intel, Sun, Citrix o Blade Logic, entre otras. Los proveedores de servicio son las
compañías que como: Amazon, Salesforce.com, Rackspace, Google o Microsoft ponen a disposición de los
clientes sus grandes entornos de computación, creados con las plataformas e infraestructuras de los
“enablers” y por lo general siguiendo el modelo SaaS.
Utility computing
Utility computing (computación de utilidad) se define como el suministro de recursos computacionales,
procesamiento y almacenamiento de datos. Este sistema tiene la ventaja de generar bajos costos iniciales en
la adquisición de hardware, ya que estos recursos computacionales son esencialmente rentados. Básicamente,
Utility Computing es un modelo de negocio en el que una empresa subcontrata la totalidad o parte de sus
recursos computacionales a un operador. Se le llama modelo de negocio por que le cliente paga el acceso y
uso de los recursos computacionales a un operador. Se le llama modelo de negocio por que el cliente paga el
acceso y uso de los recursos computacionales que utilice, como un servicio público (agua o electricidad). Los
clientes que realizan procesamiento de datos a gran escala o que están frente a un pico de demanda, pueden
evitar los atrasos que resultan al adquirir y ensamblar físicamente una gran cantidad de computadoras en sus
instalaciones.

Fundamentos Utility
El principio de Utility Computing es muy simple: Una empresa paga a otra empresa de servicios
computacionales. Los servicios pueden incluir alquiler de hardware, espacio de almacenamiento de datos, el
uso de aplicaciones informáticas específicas o el acceso a servidores de procesamiento. Todo depende de lo
que el cliente quiere y lo que la compañía de Utility Computing puede ofrecer.
Recursos
Muchas empresas de Utility Computing ofrecen paquetes de recursos; un amplio paquete podría incluir los
siguientes:

 Hardware
Servidores, CPU’s, monitores, dispositivos de entrada y los cables de red.

 Acceso a Internet
Incluyendo los servidores Web y la navegación de software.

 Las aplicaciones de software


Que ejecutan toda la gama de programas de computación. Se podrían incluir programas de
procesamiento de textos, correo electrónico, hojas de cálculo, generadores de proyectos, etc.
“Software as a Service” (SaaS).

 Acceso a servidores
De procesamiento de una supercomputadora. Algunas empresas tienen fuertes necesidades de
cómputo. Por ejemplo, una empresa financiera puede necesitar para el proceso que cambia con
rapidez los datos obtenidos en el mercado de valores. Mientras que una computadora normal puede
tardar horas para procesar datos complejos, una supercomputadora puede completar la misma tarea
más rápidamente.

Recursos 2
Sistema de grid computing
Un sistema de computación en red, es una red de equipos que ejecutan un software especial llamado
“middleware”. El middleware puede detectar inactividad de CPU de un equipo, lo cual permite que una
aplicación que se ejecuta en otro equipo para tomar ventaja de ella.

Almacenamiento de datos fuera de sitio


Que también se llama de almacenamiento de nubes. Hay muchas razones para que una empresa desee
almacenar los datos fuera de sitio. Si la compañía procesa una gran cantidad de datos, podría no tener el
espacio físico para mantener los servidores de datos que necesita. Un backup off-site es también una buena
manera de proteger la información en caso de un catástrofe, por ejemplo, si la construcción de la compañía
fuera destruida en un incendio, los datos todavía existen en otro lugar.

Ventajas Utility
Para la mayoría de los clientes, la mayor ventaja de Utility Computing es la conveniencia. El cliente no tiene
que comprar todo el hardware, software y/o licencias que se necesitan para hacer negocios. Muy relacionado
a la conveniencia es la compatibilidad. En una gran empresa con muchos departamentos, pueden surgir
problemas con el software de computación, cada departamento puede depender de software diferente; o los
archivos utilizados por los empleados en una parte de la empresa pueden ser incompatibles con el software
utilizado por los empleados en otra parte. Utility Computing ofrece a las empresas la posibilidad de suscribirse
a un servicio único y el uso del mismo software de toda la organización de clientes. Otra ventaja para los
clientes es que la mayoría de los costos de mantenimiento se convierte en la responsabilidad del proveedor,
no del cliente. El cliente puede portar por confiar en el hardware simplificado (thin client), que es menos
costoso y puede ser más fácil de mantener.

Desventajas
Una desventaja potencial es la fiabilidad. Si una empresa de Utility Computing se encuentra en problemas
financieros o tiene problemas con el equipo con frecuencia, los clientes podían estar aislados de los servicios
por los que están pagando. Esto significa problemas para el proveedor y el cliente, si una empresa de Utility
Computing queda fuera del negocio, sus clientes podrían ser víctimas de la misma suerte. Los sistemas de
Utility Computing también puede ser blanco atractivo para los hacker’s. Un hacker puede acceder a los
servicios sin pagar por ellos o visitar e investigar los archivos del cliente. Gran parte de la responsabilidad de
mantener el sistema seguro corresponde al proveedor, pero algunos de ellos se basa también en las prácticas
de los clientes. Si una empresa no educa a sus trabajadores en los procedimientos de acceso adecuado, no es
difícil para un intruso encontrar maneras de invadir el sistema de una empresa de Utility Computing. Uno de
los retos se enfrentan los servicios de Utility Computing es educar a los consumidores sobre el servicio. La
conciencia de Utility Computing no está muy extendida. Es difícil vender un servicio a un cliente, si el cliente
nunca ha oído hablar de él.

Thin Client
El Thin Client (cliente ligero) es una PC con menos capacidades. Thin Client es una computadora cliente o un
software de cliente en una arquitectura de red cliente-servidor que depende primariamente del servidor
central para las tareas de procesamiento, y principalmente se enfoca en transportar la entrada y salida entre
el usuario y el servidor remoto. En contraste, un cliente pesado hace tanto procesamiento como sea posible y
pasa solamente los datos para las comunicaciones y el almacenamiento al servidor.

Beneficios Thin Client


Debido a que los clientes ligeros son numerosos pero relativamente pasivos y de bajo mantenimiento, el
sistema entero es más simple y más fácil de instalar y operar. A medida que el costo del hardware baja, el
costo de emplear menos técnicos y de energía aumenta, las ventajas de los clientes ligeros crecen. Por otro
lado, desde la perspectiva del usuario, la interacción con el monitor, el teclado, y el ratón cambia poco, que
cuando se está usando un cliente pesado. Una sola PC usualmente puede manejar cinco o más clientes ligeros.
Un servidor puede soportar hasta cien clientes ligeros a la vez. Un servidor de alto rango puede manejar sobre
700 clientes. El aumento de conexiones a Internet de alta velocidad en el hogar y en el trabajo ha aumentado
el interés reciente en clientes ligeros. Los clientes ligeros ahora pueden replicar un sistema operativo entero
usando el software de virtualización, lo cual en un momento no era posible. Esto ha aumentado la cantidad de
programas y software que un cliente ligero puede correr. Los clientes ligeros son una gran inversión para las
escuelas y los negocios que quieren maximizar el número de estaciones de trabajo que pueden comprar con
un presupuesto bajo. También ahorraría mucha energía a largo plazo, debido al bajo consumo de energía para
trabajar.

Ventajas Thin Client


Menores costos de administrativos de IT
Los clientes ligeros son manejados casi enteramente en el servidor. El hardware tiene menos lugares donde
puede fallar, el entorno local es altamente restringido, y el cliente es más simple y a menudo carece de
almacenamiento permanente, proporcionando protección contra el malware.

Información centralizada
Como la información se encuentra en un solo lugar facilita la realización de backups y evita que se guarden
archivos que no sean del negocio.

Más fácil de asegurar


Los clientes ligeros pueden ser diseñados de modo que ni siquiera los datos de aplicación residan en el cliente
(apenas son exhibidos en la pantalla), centralizando la protección contra él y reduciendo los riesgos de hurto
de los datos físicos.

Seguridad de datos mejorada


Si un dispositivo del cliente ligero sufre una seria desgracia o accidente de trabajo, no se perderá ningún dato,
puesto que residen en el servidor de terminales y no en el dispositivo de punto de operación.

Más bajos costos de hardware


El hardware del cliente ligero es generalmente más barato porque no contiene disco duro, memoria de
aplicaciones, o un procesador poderoso.

Menor consumo de energía


El hardware dedicado de cliente ligero tiene mucho más bajo consumo de energía que las típicas PC de
clientes pesados, ahorran hasta un 80% de electricidad y cuidan el medio ambiente.

Ventajas Thin 2
Facilidad en la gerencia de fallas de hardware
Si un cliente ligero falla, un reemplazo puede ser simplemente colocado mientras el cliente es reparado; el
usuario no será incomodado porque sus datos no están en el cliente

Vale menos para la mayoría de los ladrones


El hardware del cliente ligero, ya sea si es un dedicado o un simple hardware viejo que ha sido reorientado vía
cascada, es menos útil fuera de un ambiente de servidor de cliente

Operable en ambientes hostiles


La mayoría de los clientes ligeros no tienen piezas móviles, así que pueden ser usados en ambientes
polvorientos sin la preocupación de que puede haber con la obstrucción de los ventiladores de la PC que
puede recalentarlas y quemarlas.

Menos ancho de banda de la red


Puesto que los servidores de terminales típicamente residen en la misma backbone de la red de alta velocidad
que los servidores de archivo, mayor parte del tráfico de red está confinado al cuarto del servidor.

Uso más eficiente de los recursos de computación


Los clientes ligeros usan solamente la cantidad exacta de recursos de computación requeridos para la tarea
actual.

Ventajas Thin 3
Actualización de hardware
Si se requiere actualizar el hardware de una unidad Thin Client, es un proceso relativamente simple agregar
otro componente a un rack de servidor (ya sea energía, procesamiento o almacenamiento), aumentando los
recursos a la cantidad requerida. Las unidades existentes pueden continuar sirviendo junto a la nueva,
mientras que un modelo de cliente pesado requiere que sea reemplazada una unidad de escritorio completa,
resultando en tiempo muerto para el usuario, y el problema de disponer de la unidad vieja.

Menor ruido
El ya mencionado retiro de ventiladores reduce el ruido producido por la unidad. Esto puede crear un
ambiente de trabajo más agradable y más productivo.

Menos hardware desperdiciado


El hardware contiene metales pesados y plásticos y requiere energía y recursos para ser construido. Los
clientes ligeros pueden permanecer en servicio por más tiempo y producen menos hardware excedente que
una equivalente instalación de cliente pesado porque pueden ser hechos sin partes móviles.

Data Center
Un Data Center es un sitio en donde se ubican físicamente equipos de cómputo, servidores, switches,
enrutadores, dispositivos de almacenamiento de datos, distribuidores de carga, racks y otros más. También es
el lugar en donde se llevan a cabo funciones centralizadas de administración, procesamiento, intercambio y
almacenamiento de datos. Estas funciones y equipo proporcionan los recursos necesarios para la prestación
de servicios como Web Hosting, almacenamiento y respaldo y cualquier otra aplicación de negocios. El Data
Center debe asegurar la disponibilidad y seguridad de los recursos de hardware, software y datos ubicados en
él.

Historia Data Center


Los Data Centers tienen sus raíces en los enormes cuartos de cómputo de los primeros años de la industria de
la computación. En la década de los 90, con la llegada de las aplicaciones cliente-servidor y el diseño jerárquico
de los servicios en red, a los servidores se les colocó en un sitio centralizado dentro de las empresas, utilizando
el espacio los viejos cuartos de cómputo. El uso del término “Data Center”, se aplicó especialmente a esos
sitios. El punto de inflexión en la industria de los Data Centers se dio a la par del crecimiento de los sitios
“punto com” en internet. En esa época las compañías iniciaron la construcción de sitios llamados Internet Data
Centers (IDC’s), los cuales proporcionaron una gran variedad de sistemas para el desarrollo y operación de
Internet. Ya en el 2007, el diseño, construcción y operación del Data Center era disciplina bien conocida.

Características principales Data


Las características de un Data Center deben analizarse desde distintos enfoques, por ejemplo, los aspectos
relacionados a la construcción del sitio, la arquitectura física y lógica de los componentes y servicios, si se trata
de un Data Center público o privado, etc. En general las principales características que deben incorporarse a
un Data Center son las que se incluyen en la siguiente tabla:

 Fuentes de alimentación múltiples


El Data Center debe ser alimentado desde por lo menos dos subestaciones diferentes

 Enlaces con el carrier respaldado


Los enlaces hacia el exterior deben estar respaldados, preferentemente desde otro carrier o por lo
menos por circuitos de fibra con distinta trayectoria física

 Generadores de reserva
La alimentación del data center debe estar respaldada por generadores de respaldo para utilizarse en
caso de que las líneas principales de alimentación fallen.

 Bancos de baterías e inversores (UPS)


Estos elementos soportan la alimentación de la carga esencial en el sitio durante periodos de transición
entre la alimentación principal y los generadores de reserva

 Sistemas de ahorro de energía


Incluyen iluminación, enfriamiento y consumo en los equipos

 Clima controlado
Sistemas de enfriamiento y técnicas de construcción que posibilitan una temperatura (20-25 °C) y
humedad reguladas.

 Sistemas de administración fuera de banda


Los sistemas de administración deben ser independientes de los recursos administrados

 Virtualización y consolidación
Utilizar tecnologías de virtualización para consolidar más de una máquina virtual en un solo servidor
físico

 Sistemas de almacenamiento redundantes


Los sistemas de almacenamiento de los datos deben ser redundantes, con arreglos de discos tipo RAID
y manejadores de cintas de respaldo

 Sistemas de seguridad
Los sistemas de seguridad deben ser integrales, desde el acceso al edificio, procedimientos de
intervenciones, seguridad lógica de los datos y aplicaciones, firewalls, etc.

 Protección ante desastres


El Data Center debe estar ubicado en zonas geográficas con bajas probabilidades de desastres
naturales, con un espejo en otra localidad.

Servicios Data
De manera general un Data Center proporciona servicios de almacenamiento y procesamiento, los cuales son
implementados de acuerdo a la arquitectura que se esté utilizando (la arquitectura depende principalmente
del fabricante de los dispositivos). Desde un enfoque comercial, los Data Center públicos ofrecen una serie de
productos entre los que se incluyen:

 Co-ubicación
 Web Hosting
 Almacenamiento y respaldo de la información
 Monitoreo de sistemas
 Administración de sistemas
 Transmisión de audio/video

Normas de un Data Center


Las reglas para el diseño e implementación de la infraestructura de soporte de un Data Center están descritas
en la Norma TIA-942. Además existe la certificación ICREA (ICREA-Std-131-2007) que avala la correcta
implementación y operación de un Data Center.
Norma TIA-942
El estándar TIA-942 define los criterios para el diseño e implementación de áreas de tecnología y
comunicaciones. El estándar divide la infraestructura de un Data Center en 4 subsistemas:

 Telecomunicaciones (cableado, accesos redundantes, etc.)


 Arquitectura (ubicación y diseño del edificio)
 Sistema Eléctrico (alimentación, tierras, UPS, etc.)
 Sistema Mecánico (climatización, detección de fuego, etc.)

Y dependiendo del grao de disponibilidad, el estándar califica a un Data Center en algunos de los siguientes
niveles:

 Tier I con un 99.67% de disponibilidad (28 horas/año)


 Tier II con un 99.741% de disponibilidad (22 horas/año)
 Tier III con un 99.982% de disponibilidad (2 horas/año)
 Tier IV con un 99.995% de disponibilidad (1 hora/año)

ICREA (ICREA-Std-131-2007)
ICREA (International Computer Room Expert association), es una asociación internacional dedicada a la
certificación de Data Center’s. Las certificaciones se basan en una serie de estándares entre los que se incluye
el TIA-942. ICREA ofrece 5 niveles de certificación:
Nivel 1 QADC (Quality Assurance Data Center)
Nivel 2 WCQA (World Class Quality Assurance)
Nivel 3 S-WCQA (Safety WCQA)
Nivel 4 HS-WCQA (High Security WCQA)
Nivel 5 HSHA-WCQA (High Security High Available WCQA)
Triara Data Center tiene el nivel 5 de certificación

Arquitectura funcional
La arquitectura funcional de un Data Center está determinada por la forma en la cual los dispositivos de
acceso, almacenamiento, procesamiento y de interconexión están relacionados, tanto desde el punto de vista
físico como lógico.
En muchos casos la arquitectura obedece a la planeación y decisiones de los ingenieros encargados del Data
Center, pero también existen propuestas de fabricantes como Cisco, Sun, HP, IBM y otros más, que ofrecen un
portafolio de productos que permiten la implementación de la arquitectura que proponen.

Propuesta CISCO
Desde la perspectiva de Cisco, la meta final de la arquitectura de un Data Center debe ser:
“Proporcionar una infraestructura ágil, que sea capaz de incorporar mejoras sobre la marcha en sistemas de
cómputo, almacenamiento y aplicaciones de red, las cuales permitan a las TI (Tecnologías de la Información)
soportar los procesos de cambio del negocio”.
Utilizando tecnologías de consolidación y visualización, las soluciones del Cisco Data Center permiten convertir
los recursos de cómputo y almacenamiento en un centro de servicio de recursos compartidos, con
componentes estandarizados que pueden, de forma dinámica, agregarse, aprovisionarse y accederse a través
de una red inteligente.

Propuesta SUN
La propuesta de SUN está fundamentada en patrones de diseño recopilados a través de la experiencia en la
construcción de soluciones de Data Center. SUN adapta la arquitectura del Data Center a las necesidades del
cliente, pero en general se pueden ubicar 3 niveles, los cuales se muestran en la siguiente imagen:

 SDN
SDN (Service Delivery Networks) es una propuesta modular que permite la creación de arquitecturas
lógicas, mediante la virtualización, que pueden ser desplegadas sobre una arquitectura física. Cada
arquitectura lógica es diseñada para cubrir las necesidades de una carga de trabajo específica es
totalmente escalable y adaptable a los requerimientos que las aplicaciones de negocio demandan.

 SOE
El SOE (Standardized Operating Environments) integra el conjunto de servicios y aplicaciones comunes
que son requeridos por una plataforma operativa. SOE puede ser tan específico como para permitir la
ejecución de una sola aplicación o tan genérico como para servir a cientos de aplicaciones.

 POD
Un POD (Points of Delivery) es un ambiente optimizado para un cierto tipo de carga de trabajo que
incluye procesamiento (servidores), almacenamiento e interconexión.

 La “carga de trabajo” describe los recursos de procesamiento y almacenamiento que una aplicación
necesita para ejecutarse. Normalmente los recursos consumidos son dinámicos, por lo tanto el POD
debe ser escalable.

Operación Data
Una parte importante en la operación de los Data Center es el almacenamiento de la información. Los
sistemas de información requieren que los datos sean accesibles de manera inmediata y que además se
asegure su confiabilidad y disponibilidad. El volumen de los datos incrementa de manera constante conforme
nuevas aplicaciones aparecen en el mercado, este crecimiento ha traído consigo la creación de sistemas de
almacenamiento construidos con arreglos de discos duros o cintas magnéticas cuya capacidad está en el orden
de los Terabytes. El mecanismo utilizado por los servidores de aplicación para leer o escribir en los sistemas de
almacenamiento depende directamente del modelo utilizado, en general existen tres opciones:

 DAS (Direct Attached Storage)


 NAS (Network Attached Storage)
 SAN (Storage Area Network)

DAS
El modelo DAS es utilizado por un servidor trabajando de manera (standalone). DAS se compone de tres
niveles básicos de software:
1. Aplicación
2. Sistema de archivos
3. Controlador de disco

Estos tres elementos normalmente se ubican en una sola entidad física y su interacción hace ver al servidor
como una unidad independiente. El software de aplicación es el encargado de generar las solicitudes de
información (transacciones I/O). El sistema de archivos tiene organizados los datos en archivos y directorios
dentro de las particiones, en las cuales está separado lógicamente el disco o los discos. El controlador de disco
se encarga de ejecutar las acciones de lectura y escritura sobre los sectores físicos en el disco.

NAS
El modelo NAS es posible gracias a las facilidades implementadas en los sistemas de transferencia de archivos
NFS (Network File System), para UNIX, y CIFS (Common Internet File System) para Windows. Estos sistemas
permiten que el sistema de archivos esté localizado o montado de manera remota y accesible a través de la
red, en lugar de residir en el servidor de aplicaciones. En NAS el software de aplicación realiza la solicitud I/O y
la envía a través de la red al sistema de archivos remoto en el servidor NAS, el cual determina la ubicación de
los datos solicitados por la aplicación cliente y envía una solicitud al controlador de disco. El controlador de
disco, obtiene los datos desde el arreglo de discos RAID (Redundant Array of Independent Disks) y los envía al
sistema de archivos del servidor NAS, el cual los transfiere a la aplicación cliente a través de la red.

SAN
De acuerdo a la SNIA (Storage Networking Industry Association): “Una SAN es cualquier red de alto
rendimiento cuyo propósito primario es permitir la comunicación entre dispositivos de almacenamiento y
sistemas de computadoras”. La definición deja abierta la posibilidad de utilizar cualquier tecnología disponible
para la interconexión de los dispositivos, en la actualidad la más común es Fiber Channel. Los dispositivos de
almacenamiento pueden ser de cualquier tipo, por ejemplo: discos, cintas, sistemas RAID (Redundant Array of
Independent Disks) y librerías robotizadas. En una SAN los servidores están físicamente conectados a todos los
dispositivos de almacenamiento, esto permite que distintos servidores compartan las mismas bases de datos
sin necesidad de realizar copias temporales o permanentes de la información.

Contact Center
El término centro de llamadas se refiere a una plataforma tecnológica utilizada por una organización humana,
dentro de la empresa o fuera de ella, que se encarga de asistir a los usuarios, normalmente vía telefónica. Los
centros de llamadas permiten asistir al cliente en lo relacionado con servicios posventa (ASS), soporte técnico,
televentas o al personal de una empresa con respecto al uso de herramientas o la ejecución de tareas. Cuando
se trata de un centro de llamadas dedicado a proveer soporte técnico, se conoce como centro de soporte.

Tipos Contact Center


De acuerdo el tipo de llamadas procesadas, un Contact Center puede ser catalogado como Inbound u
Outbound. Un Contact Center Inbound recibe llamadas desde los clientes, por ejemplo en los centros de
soporte. En este tipo de centros la conexión desde el cliente puede utilizar canales de comunicación
alternativos. En un Contact Center Outbound los ejecutivos son los que originan las llamadas hacia los clientes,
por ejemplo para la venta, cobro u ofrecimiento de algún producto o servicio. Para este tipo de centros el
canal de comunicación más usual es el telefónico (el correo electrónico es otra opción pero puede ser
considerada como SPAM). Además los Contact Center puede ser internos o externos (outsourcing), los
intentos sirven solo para cubrir las necesidades de una empresa y los externos ofrecen sus servicios a una gran
cantidad de empresas o campañas.

Prácticas
Mejores prácticas en un Contact Center
Las mejores prácticas que conducen a que un Contact Center sea productivo y que represente un punto de
apoyo y no una carga para una empresa, se pueden resumir en las siguientes:

 Enfocado en el objetivo del negocio


 Respuesta rápida a cualquier canal de comunicación
 Moral alta en los agentes
 Satisfacción del cliente al primer intento
 Evaluación constante del grado de satisfacción del cliente
 Excelente herramienta para obtener ganancias
 Eficiente, la duración de las llamadas debe ser constante
 Adaptativo, en procesos de atención
 Representa una ventaja estratégica para la organización

Malas prácticas
La buena operación de un Contact Center puede ser afectada por alguna de las siguientes malas prácticas:

 Largo tiempo de espera


 Pasar la llamada de agente a agente
 Llamadas demasiado extensas (largos periodos en hold)
 Sin resolución a la primer llamada
 Baja moral en los agentes (mucha rotación)
 No existen mecanismos de medición del grado de satisfacción del cliente

Tecnologías Contac
Las tecnologías que soportan los servicios que brinda un Contact Center se han mantenido en constante
evolución e integración, buscando facilitar la labor de los agentes para lograr mejores niveles de satisfacción
del cliente y en consecuencias mayores ganancias para el negocio. Sin embargo, la operación de un Contact
Center depende principalmente de la gente y los procesos depende principalmente de la gente y los procesos
dejando a la tecnología solo como una herramienta para conseguir los objetivos. En la actualidad la mayoría
de los Contact Center cuentan con algunas de las tecnologías que se listan a continuación:

 ANI (Automatic Number Identification)


 DNIS (Dialed Number Identification Service)
 DNR (Dynamic Network Routing)
 ACD (Automatic Call Distribution)
 Marcación predictiva
 CTI (Computer/Telephone Integration)

Conceptos
ANI
ANI habilita la identificación del número del cliente que está llamando al Contact Center, (Caller ID en sistemas
telefónicos tradicionales). ANI permite que el sistema busque y presente al agente información relacionada al
cliente antes de que conteste la llamada. Además es posible establecer procesos de enrutamiento
automatizados que encaminen la llamada a un grupo de agentes especializado.

DNIS
DNIS proporciona información del número que el cliente marcó, esto es importante cuando el Contact Center
utiliza varios números telefónicos y cada número identifica servicios distintos. DNIS permite que el sistema
encamine las llamadas al grupo de agentes apropiado.

DNR
El enrutamiento dinámico es una función permite encaminar de manera apropiada las llamadas de los
clientes. El enrutamiento puede ser a nivel de Contact Center, por ejemplo, cuando un centro recibe las
llamadas durante el día y otro en horario nocturno. Esta función es un servicio que la compañía telefónica
debe proporcionar.

IVR
Los sistemas IVR permiten que el proceso de obtención de información el cliente se automatice, de manera tal
que el cliente interactúe con el IVR, mediante su teclado telefónico, para proporcionar la información
necesaria y en muchas situaciones obtener el servicio deseado sin la intervención del agente. Un IVR puede
adaptarse para habilitar que el sistema reciba la información mediante comandos de voz en lugar del teclado.

ACD
La distribución automática de llamadas es el corazón del Contact Center. Cuando una llamada es recibida, la
función ACD la coloca en un sistema de encolamiento a la espera de que algún agente esté disponible.
Mientras el cliente está en espera, ACD se programa para ofrecer algún mensaje informativo o música de
confort. Además puede encaminar las llamadas al agente con el perfil más adecuado de acuerdo a la
información proporcionada por el cliente.

CTI
La integración de los servicios telefónicos con los sistemas computacionales es fundamental en los Contact
Center actuales. Después de que una llamada es asignada a un agente, este debe contar con la información y
herramientas necesarias para ofrecer un servicio apropiado al cliente. Esto incluye información de cuentas,
historial del cliente, características de productos, precios, simuladores de crédito, etc. Los sistemas CTI ofrecen
a los Contact Center las siguientes ventajas:

 Acceso inmediato a guías para solución de problemas, procedimientos y políticas de la empresa


 Scripts dinámicos que ajustan el manejo de la llamada de acuerdo a las características y necesidades
 Herramientas de comunicación con agentes de nivel superior
 Ventanas emergentes (screen pop-up) con información relevante del cliente o de algún producto
 Integración con Internet

IP Contact Center
Los IP Contact Center están fundamentados en la tecnología que permite la transmisión de voz sobre redes IP
(VoIP). La integración de aplicaciones es la razón principal para migrar hacia una solución de IP Contact Center.
Esta integración se consigue gracias a que todos los elementos (terminales, adaptadores, Gateway,
controlador) que participan en una conversación VoIP están conectados a la red IP, al igual que los sistemas de
cómputo e Internet. Además, transportar todas las aplicaciones sobre una red IP finalmente se traduce en una
atención al cliente más completa y adaptable. La imagen ilustra la interconexión de los elementos que
integran esta solución.
Sistemas VoIP
El establecimiento de llamadas VoIP es controlado de manera centralizada por medio de un servidor SIP (IP-
PBX). La comunicación entre el servidor y los terminales de usuario se efectúa mediante el protocolo SIP
(Session Initiation Protocol). Los terminales de usuarios son los dispositivos que inician o reciben una conexión
VoIP. Normalmente los agentes tendrán instalados teléfonos IP o Softphone y las llamadas desde la red
telefónica son adaptadas al entorno IP mediante un Gateway. El conjunto del control centralizado y SIP
permiten que se implementen una serie de servicios telefónicos extras, como el identificador de llamadas,
conferencia, sígueme, etc. Dando lugar al concepto conocido como telefonía IP. Los sistemas de telefonía IP.
Los sistemas de telefonía IP pueden ser de uso privado o estar implementados en redes públicas.

Beneficios VoIP
La solución de IP Contact Center trae consigo una serie de beneficios entre los que se destacan los siguientes:
Reducción de costos

 Los cargos de llamadas de larga distancia disminuyen y en algunos casos se eliminan


 Al unificar la red de voz y datos utilizando servidores estándar el costo total de la solución se reduce
 La gestión del sistema se unifica, administración de la red, servidores, altas, bajas, cambios de agentes,
etc.

Mejores en la experiencia del cliente

 Pueden utilizar el canal que más se les facilite: voz, e-mail, video, mensajes, chat, web call-back, etc.
 Reciben un servicio más rápido y eficiente al encaminar su llamada al agente más adecuado
 En caso de que la llamada se transfiera de un agente a otro, la transferencia se acompaña con toda la
información relacionada al cliente. Integrando la solución con sistemas CRM el cliente puede recibir un
trato preferencial, clientes premier, oro, etc. Además de que el agente tiene disponible información le
permite anticipar las necesidades del cliente.

VoIP
Mayor retención de agentes

 Los supervisores pueden monitorear y grabar a sus agentes para identificar puntos de mejora
 La capacitación puede hacerse en línea e incluso atendiendo clientes en sesiones de colaboración entre
supervisor y agente
 Al trabajar con más herramientas de comunicación, el agente sale de la monotonía y su trabajo es más
diverso y agradable
 El agente puede trabajar desde su hogar
 La solución es totalmente escalable

Servicios WEB
Un servicio WEB consiste en una función disponible en un servidor conectado a Internet, la cual se encarga de
ejecutar algún proceso y enviar los resultados a la entidad solicitante, por ejemplo:

 Realizar un simple cálculo con unos datos que se le envían como parámetro
 Acceder a una base de datos para recuperar un conjunto de registros
 Validar la corrección de una información o contrastarla frente a otros datos, etc

Estos servicios proporcionan mecanismos de comunicación estándares entre diferentes aplicaciones, que
interactúan entre sí para presentar información dinámica al usuario. Los servicios WEB están fundamentados
por una serie de estándares publicados por el W3C (World Wide Web Consortium) y apoyados por los
principales fabricantes de tecnología (IBM, Microsoft, etc.). Estos estándares señalan cómo se deben cursar las
peticiones de servicio a servidores remotos, la forma en la cual éstos deben enviar los resultados, y cómo se
deben publicar o dar a conocer los servicios que están accesibles a través de un servidor WEB.

DRP
Un plan de recuperación ante desastres (DRP, Disaster Recovery Plan) es un proceso de recuperación que
cubre los datos, el hardware y el software crítico, para que una organización pueda iniciar de nuevo sus
operaciones a causa de una eventualidad de la naturaleza o humana.

Razones para un DRP


Existen diferentes riesgos que pueden impactar negativamente las operaciones normales de una organización.
Una evaluación de riesgo debería ser realizada para ver que constituye el desastre y a que riesgos es
susceptible una empresa específica, incluyendo:

 Catástrofes
 Fuego
 Fallas de energía
 Ataques terroristas
 Interrupciones organizadas o deliberadas
 Sistema y/o fallas de equipo
 Error humano
 Virus informáticos
 Cuestiones legales
 Huelgas de empleados

Prevención de desastres
 Enviar respaldos fuera de sitio semanalmente para que en el peor de los casos no se pierda más de los
datos de una semana
 Incluir el software así como toda la información de datos, para facilitar la recuperación
 Si es posible, usar una facilidad remota de reserva para reducir al mínimo la pérdida de datos
 Redes de Área de Almacenamiento (SANs) en múltiples sitios son un reciente desarrollo que hace que
los datos estén disponibles inmediatamente sin la necesidad de recuperarlos o sincronizarlos
 Protectores de línea para reducir al mínimo el efecto de oleadas sobre un delicado equipo electrónico
 El suministro de energía ininterrumpido (SAI)
 La prevención de incendios – más alarmas, extintos accesibles
 El software del antivirus
 El seguro en el hardware

Plan
Para asegurar la continuidad del negocio, es recomendable partir de la siguiente premisa: “Siempre desear lo
mejor y planear para lo peor”. En un buen plan existen diferentes factores que hay que tomar en cuenta.
Los más importantes son:

 El árbol telefónico: para notificar todo el personal clave del problema y asignarles tareas enfocadas
hacia el plan de recuperación

 Reservas de memoria: si las cintas de reserva son tomadas fuera de sitio es necesario grabarlas. Si se
usan servicios remotos de reserva se requerirá una conexión de red a la posición remota de reserva ( o
Internet)

 Clientes: la notificación de clientes sobre el problema reduce al mínimo el pánico

 Instalaciones: teniendo sitios calientes o sitios fríos para empresas más grandes. Instalaciones de
recuperación móviles están también disponibles en muchos proveedores

 Trabajadores con conocimiento: durante desastre a los empleados se les requiere trabajar horas más
largas y más agotadoras. Debe haber un sistema de apoyo para aliviar un poco de tensión

 La información de negocio: las reservas deben estar almacenadas completamente separadas de la


empresa. La seguridad y la fiabilidad de los datos es clave en ocasiones como estas.

Principios
Planeación para la continuidad del Negocio (BCP, Business Continuity Planning) Continuidad del Negocio es un
concepto que abarca tanto la planeación para Recuperación de Desastres (DRP) como la Planeación para el
Restablecimiento del Negocio. Recuperación de Desastres es la capacidad para responder a una interrupción
de los servicios mediante la implementación de un plan para restablecer las funciones críticas de la
organización. Ambos se diferencian de la Planeación de Prevención de Pérdidas, la cual implica la
calendarización de actividades como respaldo de sistemas, autenticación y autorización (seguridad), revisión
de virus y monitoreo de la utilización de sistemas (principalmente para verificaciones de capacidad). En esta
ocasión hablaremos sobre la importancia de contar con la capacidad para restablecer la infraestructura
tecnológica de la organización en caso de una disrupción severa.

Constantemente se experimentan situaciones de emergencia, directa o indirectamente, las cuales se


manifiestan en respuestas equívocas ocasionadas por el temor, miedo o un extremoso pánico aterrador.

Administradores
Frecuentemente los administradores o responsables de los sistemas de cómputo empiezan a tomar en cuenta
la seguridad de su sistema después de haber sido objeto de un ataque, dando como resultado la pérdida de
información, horas de trabajo, incluso dinero. La seguridad en el trabajo es uno de los factores más
importantes que garantizan el crecimiento de la productividad.
Velar por la seguridad física y lógica no es una tarea que se efectúe una sola vez y garantice su eficiencia por
siempre. Para mantener la seguridad se requiere realizar periódicamente tareas preventivas. El
establecimiento de procedimientos y medidas de seguridad están destinados a salvaguardar la unidad
administrativa, el centro de cómputo su estructura física, al personal, sus procedimientos operacionales, la
información y documentación generada contra cualquier evento natural o humano que de forma intencional o
por accidente pueden afectarlos.

Puntos de la tecnología
Proceso de recuperación

 Comprar nuevo equipo (el hardware) o reparar o quitar virus, etc.


 Llamar el abastecedor de software e instalar de nuevo el software
 Recuperar los discos de almacenaje que estén fuera de sitio
 Reinstalar todos los datos de la fuente de respaldo
 Volver a meter los datos de las pasadas semanas
 Tener estrategias periódicas de respaldos de base de datos

Tecnología

 Biblioteca de cinta virtual


 Software de réplica sincrónico
 Tecnología de almacenaje de réplica
 Servicio telefónico virtual PBX/HOSTED
 Backups remotos de reserva
 Protector de datos continúo
 Sistema para la administración de planes

Resumen
 Cloud Computing es el término que se define como una tecnología que ofrece servicios a través de la
plataforma de Internet. Los usuarios de este servicio tienen acceso de forma gratuita o de pago, todo
depende del servicio que necesiten usar.

 Utility Computing se define como el suministro de recursos computacionales, procesamiento y


almacenamiento de datos. Este sistema tiene la ventaja de generar bajos costos iniciales en la
adquisición de hardware, ya que estos recursos computacionales son esencialmente rentados.

 El Thin Client (cliente ligero) es una PC cono menos capacidades. Es un software de cliente en una
arquitectura de red cliente-servidor que depende primariamente del servidor central para las tareas de
procesamiento y principalmente se enfoca en transportar la entrada y salida entre el usuario y el
servidor remoto. En contraste, un cliente pesado hace tanto el procedimiento como sea posible y pasa
solamente los datos para las comunicaciones y el almacenamiento al servidor.

 Un Data Center es un sitio donde se ubican físicamente equipos de cómputo, servidores, switches,
enrutadores, dispositivos de almacenamiento de datos, distribuidores de carga, racks y otros más.
También es el lugar donde se llevan a cabo funciones centralizadas de administración, procesamiento,
intercambio y almacenamiento de datos.

 El término centro de llamadas (Contact Center) se refiere a una plataforma tecnológica utilizada por
una organización humana, dentro de una empresa o fuera de ella, que se encarga de asistir a los
usuarios, normalmente vía telefónica.

 Un plan de recuperación ante desastres (DRP, Disaster Recovery Plan) es un prceso de recuperación
que cubre los datos, el hardware y el software crítico, para que una organización pueda iniciar de
nuevo sus operaciones a causa de una eventualidad, de la naturaleza o humana.

También podría gustarte