CISCO Tutorias
CISCO Tutorias
CISCO Tutorias
net/introduccion-a-la-ciberseguridad-itc-v21/
Introducción al IoT: Capitulo 1
Packet Tracer: Es un Software de Simulación de Red, creada por Cisco Network
Academy.
Red de área local (LAN): Termino que describe las redes de un área geográfica
pequeña, ejemplo una casa o una pequeña empresa.
Red de área amplia (WAN): Termino que describe un conjunto de LAN que permite la
conectividad entre LAN e internet a través de largas distancias, permite la conexión con
servidores que almacenan grandes bases de datos en línea.
El perímetro: Limite de alcance físico que porta una red para ser accesible.
Computación en la niebla: Están dentro del perímetro de una red empresarial, y
permite el procesamiento de datos locales para su uso inmediato.
Gateway residencial: Dispositivos que actúan como un centro de conexión local para
dispositivos inteligentes IoT.
Conceptos de
Programación Básica:
Diagramas de flujo: Los
diagramas de flujo se utilizan
en diferentes industrias, entre
ellas ingeniería, ciencias
físicas y programación de
computadoras, en los cuales
se requiere una comprensión
completa de los procesos o
flujos de trabajo.
Los diagramas de flujo son diagramas que se utilizan para representar estos procesos o
flujos de trabajo, estos ilustran cómo debe funcionar un proceso y deben de ser fácil de
entender sin tener que ser un experto en el campo elegido. Los diagramas de flujo deben
mostrar los estados de entrada, las decisiones tomadas y los resultados de dichas
decisiones. Es importante mostrar los pasos que se deben seguir cuando el resultado de
una decisión es sí o no
Los programas para software de aplicaciones se crean con el fin de realizar una tarea
determinada o un conjunto de tareas. Por ejemplo, Cisco Packet Tracer.
Una variable también puede representar una ubicación de memoria. La expresión "a = 10"
representa que el valor de 10 se almacena en algún lugar de la memoria de la
computadora, que se denomina "a".
Variables locales: Estas son variables que se encuentran dentro del alcance de un
programa/función/procedimiento.
Variables globales: Estas son variables que se encuentran dentro del alcance en el
tiempo de ejecución del programa. Cualquier parte del programa puede recuperarlas.
IF – THEN: Esta estructura lógica permite que la computadora tome una decisión según
el resultado de una expresión. Un ejemplo de expresión es myVar > 0. Esta expresión es
verdadera si el valor almacenado en la variable myVar es mayor que cero.
Software de Virtualización: Permite que un único servidor físico aloje varias máquinas
virtuales.
¿Qué es Blockly?
Blockly es una herramienta de programación
visual creada para ayudar a los principiantes a
comprender los conceptos de programación.
Mediante el uso de múltiples tipos de bloques,
Blockly permite que un usuario cree un
programa sin introducir ninguna línea de código.
Crear una nueva variable en Blockly es sencillo: se debe llevar el bloque variable hasta el
espacio de trabajo y completar el valor de la casilla. También se puede cambiar el
contenido de una variable mientras se ejecuta el programa.
Google proporciona una serie de juegos educativos gratuitos y de código abierto que
pueden ayudarlo a aprender a programar. La serie se denomina Juegos de Blockly.
¿Qué es Python?
Python es un lenguaje muy común diseñado para ser fácil de leer y escribir. La comunidad
de desarrolladores de Python agrega valor al lenguaje creando todo tipo de módulos y
poniéndolos a disposición de otros programadores.
Si bien los distintos lenguajes de programación tienen diferente semántica y sintaxis,
todos comparten la misma lógica de programación. Los principiantes pueden utilizar
Blockly para crear fácilmente un programa independiente del lenguaje, exportarlo como
código de Python y usar el código recientemente creado para aprender la sintaxis, la
estructura y la semántica de Python.
Intérprete de Python
Una vez instalado el intérprete de Python, funciona de manera similar al shell de Linux.
Esto significa que, cuando se invoca sin argumentos, lee y ejecuta comandos
interactivamente. Cuando se invoca con un argumento de nombre de archivo o con un
archivo como entrada estándar, lee y ejecuta un script de ese archivo.
Para iniciar el intérprete, simplemente escriba python o python3 en el indicador del shell.
La versión de Python está impresa en la primera línea cuando se inicia el intérprete. Este
curso se basa en el código de Python 3.
Otra forma de utilizar el intérprete es python -c command [arg]... que ejecuta las
declaraciones en el comando. Como las declaraciones de Python suelen contener
espacios u otros caracteres determinados del shell, se recomienda incluir el comando
completo entre comillas simples.
Tuplas: Una tupla es una secuencia de objetos incambiables de Python. Las tuplas son
secuencias separadas por paréntesis
Listas: Las listas son una secuencia de objetos cambiables de Python. Las listas pueden
crearse configurando distintos valores separados por comas entre corchetes.
Conjuntos: Los conjuntos son colecciones no ordenadas de elementos únicos. Las
aplicaciones comunes incluyen verificación de pertenencia, la eliminación de duplicados
de una secuencia y cálculos de operaciones matemáticas estándar en conjuntos, como la
intersección, unión, diferencia y diferencia simétrica.
Se consideran "datos masivos". Las siguientes son tres características que indican que
una organización puede estar haciendo frente a datos masivos:
Tienen una gran cantidad de datos que requiere cada vez más espacio de
almacenamiento (volumen).
¿Qué cantidad de datos recopilan los sensores? Estos son algunos ejemplos
aproximados:
Muchas empresas de distintos tamaños, consideran que tienen que recopilar sus propios
datos para ver los beneficios del análisis de datos masivos, pero esto simplemente no es
cierto.
El rápido crecimiento de datos puede ser una ventaja o un obstáculo cuando se trata de
lograr los objetivos comerciales. Para tener éxito, las empresas deben ser capaces de
acceder y administrar fácilmente sus activos de datos.
Con la constante creación de esta enorme cantidad de datos, las tecnologías tradicionales
y los almacenes de datos (Data Warehouses) no pueden cumplir con las necesidades de
almacenamiento. Incluso con los recursos de almacenamiento en la nube que están
disponibles por parte de las empresas como Amazon, Google, Microsoft y muchas otras,
la seguridad de los datos almacenados se convierte en un gran problema.
Una de las desventajas de utilizar la nube es que sus datos podrían caer en las manos
equivocadas. Desde la perspectiva de una empresa, los servicios y la computación en la
nube permiten resolver una variedad de problemas de administración de datos:
Procesamiento distribuido
Desde una perspectiva de administración de datos, el análisis era sencillo cuando solamente creaban datos
los seres humanos. La cantidad de datos era administrable y relativamente fácil de depurar. Sin embargo, con
la explosión de los sistemas de automatización empresarial y el crecimiento exponencial de las aplicaciones
web y los datos generados por máquinas, el análisis se torna cada vez más difícil de procesar.
En lugar de procesar grandes bases de datos con computadoras centrales grandes y potentes, y
almacenarlas en arreglos de discos gigantes (escalabilidad vertical), el procesamiento de datos
distribuidos toma el volumen de datos de gran tamaño y lo divide en partes más pequeñas.
Hadoop se creó para manejar estos volúmenes de datos masivos. El proyecto Hadoop comenzó con
dos aspectos: el sistema de archivos distribuidos Hadoop (HDFS), que es un sistema de archivos
distribuidos con tolerancia a fallas, y MapReduce, que es una manera distribuida de procesar datos.
Hadoop tiene dos características principales que lo han transformado en el estándar de la industria para
procesar datos masivos:
Escalabilidad: los tamaños de clúster más grandes mejoran el rendimiento y proporcionan capacidades
de procesamiento de datos más altas. Con Hadoop el tamaño del clúster puede escalarse de manera
simple desde un clúster de cinco nodos hasta un clúster de mil nodos sin aumentar excesivamente la
carga administrativa.
Tolerancia a fallas: Hadoop replica datos automáticamente a través de clústeres para asegurarse de
que no se perderán. Si un disco, nodo o un rack falla, los datos están seguros.
Cada organización debe volverse más eficiente y más innovadora para mantenerse competitiva y relevante en
el mundo digitalizado. IoT es una parte integral para lograr esa eficiencia e innovación.
El objetivo de muchas empresas es recopilar y analizar cantidades masivas de nuevos datos sobre el
uso de productos y obtener conocimientos valiosos. El análisis de datos permite que las empresas
comprendan mejor el impacto de sus productos y servicios, ajusten sus métodos y objetivos, y
proporcionen a sus clientes mejores productos más rápido. La capacidad para obtener nuevas
perspectivas a partir de los datos aporta valor a la empresa.
Fuentes de información
La fuente de los grandes conjuntos de datos es variada. Además de los datos de los sensores, otros datos se
originan a partir de todo lo que se ha analizado, introducido y divulgado en Internet de fuentes tales como las
siguientes:
Los datos estructurados se crean mediante aplicaciones que utilizan entradas de formato “fijo”, como hojas de
cálculo o formularios médicos. Incluso si los datos se consideran estructurados, diferentes aplicaciones crean
archivos en distintos formatos que no necesariamente son compatibles unos con otros.
Los datos no estructurados se generan en un estilo de “forma libre”, como audio, video, páginas web
y tweets. Los datos no estructurados requieren diferentes herramientas para preparar los datos para
análisis o procesamiento. Los siguientes son dos ejemplos:
Los sitios web se crean para proporcionar datos a los seres humanos, no a las máquinas. Las
herramientas que «raspan la red» (web scraping) extraen datos de páginas HTML automáticamente.
Esto es similar al rastreador o araña web de un motor de búsqueda. Explora la web para extraer datos y
crear bases de datos para responder a las consultas de búsqueda. El software de web scraping puede
utilizar el Protocolo de transferencia de hipertexto o un explorador web para acceder a la World Wide
Web. Por lo general, el proceso de web scraping es un proceso automatizado que utiliza un bot o un
rastreador web para obtener datos. Los datos específicos se recopilan y se copian de la web a una base
de datos o una hoja de cálculo. Los datos pueden luego analizarse fácilmente.