Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

El Bit

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 7

EL BIT

La palabra "bit" es una contracción de "dígito binario", el dato más pequeño en una
computadora..

Dicho sistema se llama así porque comprende únicamente dos valores de base: 1
y 0, con los cuales se puede representar una cantidad infinita de condiciones
binarias: encendido y apagado, verdadero y falso, presente y ausente, etc.

Un bit es, entonces, la unidad mínima de información que emplea la informática,


cuyos sistemas están todos sustentados en dicho código binario. Cada bit de
información representa un valor específico: 1 ó 0, pero combinando
distintos bits puede llegar a obtenerse muchas más combinaciones, por ejemplo:

En Julio de 1948, en una monografía de 79 páginas de “The Bell System


Tehnological Journal” apareció un nuevo invento. El artículo se titulaba: “Una
teoría matemática de la comunicación”. Era el eje alrededor del cual empezaría a
girar el mundo. El nombre de la innovación era “BIT”, y había sido elegido por el
autor, Claude Shannon, de 32 años. ¿Qué medía exactamente el “bit”? Según la
primera definiciòn, dada por el propio autor de la innovación, “es una unidad para
medir información”. “La teoría de la información –ha escrito James Gleick–
empezó como un puente que llevaba de las matemáticas a la ingeniería
eléctrica, y de allí, a la Informática”.

¿Cómo funciona un bit?

En esencia, un bit es una representación de dos estados o valores distintos, a


menudo interpretados como off y on, 0 y 1o false y verdadero. Estos valores
binarios son fundamentales para la electrónica y la informática digitales porque
pueden representarse fácilmente mediante dos estados físicos distintos, lo que
hace que su implementación sea práctica con la tecnología actual.
Circuitos eléctricos

En las computadoras electrónicas, los bits se representan mediante estados de


carga eléctrica: un nivel de voltaje alto podría representar un 1 (encendido) y un
nivel de voltaje bajo podría representar un 0 (apagado).

Almacenamiento

En los dispositivos de almacenamiento magnéticos y ópticos (como discos duros y


CD), los bits se registran como variaciones en la orientación magnética o
variaciones en la reflectividad del material.

Transmisión De Datos

Para transmitir datos a través de redes, los bits suelen estar representados por
variaciones en las propiedades de la señal, como la frecuencia, la fase o la
amplitud. Por ejemplo, un cambio en la fase de la señal podría representar un
cambio de 0 a 1 o viceversa.

Operaciones lógicas

A nivel funcional, los bits son las unidades fundamentales sobre las que se
realizan operaciones lógicas. Operaciones como AND, OR, NOT, XOR, etc.,
operan en bits para realizar cálculos. Estas operaciones son los componentes
básicos de funciones aritméticas y lógicas más complejas en las computadoras.

Bit frente a byte

Los términos "bit" y "byte" son fundamentales para comprender la informática y la


información digital, pero se refieren a diferentes cantidades de datos.

Un bit es la unidad de datos más pequeña en una computadora y puede tener un


valor de 0 o 1, y sirve como componente básico de todos los datos digitales. Los
bits individuales se utilizan para representar y manipular datos en el nivel más bajo
de la informática, representando información de dos estados, como
encendido/apagado, sí/no o verdadero/falso. Son fundamentales en operaciones
lógicas y esquemas de codificación binaria.

Un byte, por otro lado, es una unidad de información digital que tradicionalmente
consta de 8 bits. Históricamente, el tamaño de un byte no era fijo, pero se ha
estandarizado a 8 bits en los entornos informáticos modernos.
EL BYTE

¿Qué es un byte?

Se conoce como byte a la unidad básica de información empleada en


la informática y las telecomunicaciones, equivalente a un conjunto ordenado y
regular de bits (código binario), generalmente estipulado en 8. Es decir: 8 bits
equivalen a un byte, pero dicha cantidad puede alterarse, así que un byte es
equivalente en realidad a n bits ordenados. Esta unidad no tiene un símbolo
convencional de representación, pero en algunos países se emplea la letra B.

El origen de este término se supone en el acrónimo en inglés


de Binary Tuple o Tupla binaria, lo que equivale a una secuencia ordenada de
elementos binarios.

En cuanto a la cantidad de información que un byte representa, considérese que


se necesita aproximadamente 8 bits para representar una letra en el código binario
de la mayoría de los sistemas comerciales de computación de hoy en día, es
decir: un byte equivale a una letra, por lo que un párrafo entero podrá superar los
100 B, y un texto brevísimo alcanzará la unidad inmediatamente superior, el
kilobyte (1024 B = 1 kB).

A partir de entonces se inicia toda una escala de medida de cantidad de


información digital, de la siguiente manera (conforme a la norma ISO/IEC 80000-
13):

1024 B = 1 kB (un kilobyte, equivalente a un texto brevísimo)

1024 kB = 1 mB (un megabyte, equivalente a una novela completa)

1024 mB = 1 gB (un gigabyte, equivalente a un anaquel entero de biblioteca lleno


de libros)

1024 gB = 1 tB (un terabyte, equivalente a una biblioteca completa de poco


tamaño)
1024 tB = 1 pB (un petabyte, equivalente a la cantidad de datos
manejado por Google por hora en el mundo)

1024 pB = 1 eB (un exabyte, equivalente al peso de toda la información


de Internet para finales del año 2001).

Los bytes y sus medidas superiores suelen también emplearse para medir la
capacidad de almacenamiento de los dispositivos de memoria digital, o las tasas
de transferencia de datos a través de redes informáticas de diverso tipo.

¿Qué diferencia al byte del bit?

Los bits describen la velocidad y la cantidad de datos utilizados mediante la tasa


de bits. Es decir, los bits suelen indicar cuántas unidades de datos se transfieren
en un periodo de tiempo.

Por otra parte, los bytes se utilizan como la unidad de medida de las cantidades de
datos para definir posibles unidades de almacenamiento de datos y capacidades.
Hay que tener en cuenta que una persona conectada puede generar por día entre
700 megabytes y 1 gigabyte de datos entre subidas y descargas. Se calcula que
un 1 gigabyte contiene mil millones de bytes. En 2020, el volumen anual de datos
generados en todo el mundo ascendió a 59 zettabytes. 1 zettabyte contiene
aproximadamente 1 trillón de bytes (1021).

MEMORIA DE CACHE

En informática, se conoce como memoria caché o memoria de acceso rápido a


uno de los recursos con los que cuenta una CPU (Central Processing Unit, o sea,
Unidad Central de Procesamiento) para almacenar temporalmente
los datos recientemente procesados en un búfer especial, es decir, en una
memoria auxiliar.

La memoria caché opera de modo similar a la Memoria Principal del CPU, pero
con mayor velocidad a pesar de ser de mucho menor tamaño. Su eficacia provee
al microprocesador de tiempo extra para acceder a los datos más frecuentemente
utilizados, sin tener que rastrearlos a su lugar de origen cada vez que sean
necesarios.

Así, esta memoria alterna se sitúa entre el CPU y la Memoria


RAM (Random Access Memory, o sea, Memoria de Acceso Aleatorio), y provee de
un empuje adicional en tiempo y ahorro de recursos al sistema. De allí su nombre,
que en inglés significa “escondite”.
Anexo

También podría gustarte