Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Investigacion Osmel Ayala

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 10

ASIGNATURA:

HISTORIA Y NATURALEZA DE LA MATEMÁTICA


DOCENTE:
RAMÓN ANTONIO ZELAYA
TRABAJO:
INVESTIGACIÓN INDIVIDUAL
ALUMNO:
OSMEL MAGDIEL AYALA SERRANO
REGISTRO:
209199701508
SEDE:
CUED LA CEIBA
SECCIÓN:
´´U´´
LUGAR Y FECHA:
LA CEIBA ATLÁNTIDA 26/4/2024
DESARROLLO HISTÓRICO DE LOS SÍMBOLOS DE
LOS NÚMEROS DÍGITOS DEL SISTEMA DE
NUMERACIÓN DECIMAL
El sistema de numeración decimal, que utiliza diez dígitos (0 al 9) y se basa en la
posición de estos dígitos para representar valores numéricos, tiene una historia
fascinante que se extiende a lo largo de miles de años y abarca diversas
civilizaciones y culturas. En esta investigación exhaustiva, exploraremos el
desarrollo histórico de los símbolos de los números dígitos en el sistema de
numeración decimal:

Antecedentes Prehistóricos:
Antes del desarrollo de sistemas numéricos formales, las primeras civilizaciones
utilizaron métodos simples de conteo, como marcar palos en la tierra o hacer
incisiones en objetos. Estos métodos iniciales pueden considerarse los precursores
de los sistemas numéricos más complejos que surgieron más tarde en la historia
humana.

Sistemas de Numeración Antiguos:


1. Sistema de Numeración Egipcio:
 Los antiguos egipcios desarrollaron un sistema de numeración que
utilizaba jeroglíficos para representar números. Sin embargo, este
sistema no era decimal en el sentido de tener dígitos individuales para
cada valor de posición.
2. Sistema de Numeración Romano:
 El sistema de numeración romano, utilizado por el Imperio Romano,
empleaba símbolos específicos para representar números, como I, V, X,
L, C, D y M. Aunque no era decimal en el sentido moderno, se utilizaba
para fines contables y administrativos.
Desarrollo del Sistema Decimal:
El sistema de numeración decimal que conocemos hoy en día se desarrolló en la
India antigua y se extendió gradualmente por todo el mundo a lo largo de los siglos.

3. Notación Brahmi:
 El sistema decimal más antiguo conocido, basado en la escritura Brahmi,
se originó en la India alrededor del siglo VI d.C. Este sistema utilizaba diez
símbolos diferentes para representar los números del 1 al 9, así como un
símbolo especial para representar el cero.
 Los símbolos utilizados en este sistema se asemejaban a las formas
arábigas modernas, aunque con algunas variaciones regionales.
4. Sistema Numérico Hindú-Arábigo:
 El sistema de numeración hindú-arábigo, derivado de la notación Brahmi,
se desarrolló y refinó con el tiempo.
 Este sistema utiliza diez dígitos: 0, 1, 2, 3, 4, 5, 6, 7, 8 y 9, y se basa en
la posición de los dígitos para representar valores numéricos mayores.
 La introducción de este sistema en Europa durante la Edad Media
contribuyó significativamente a su adopción global.

Transmisión a Europa y Adopción Generalizada:


Durante la Edad Media, el sistema de numeración hindú-arábigo se introdujo en
Europa a través de traducciones de textos árabes y contribuyó al renacimiento
matemático en Europa.

5. Contribuciones de Fibonacci:
 El matemático italiano Fibonacci desempeñó un papel crucial en la
popularización del sistema de numeración hindú-arábigo en Europa. Su
libro "Liber Abaci", publicado en el siglo XIII, presentaba este sistema de
manera detallada y lo promovía activamente.
6. Adopción Global:
 Con el tiempo, el sistema de numeración decimal se convirtió en el
estándar global para la representación numérica en una variedad de
campos, incluyendo la ciencia, la economía y la tecnología.
 Su simplicidad y eficacia contribuyeron a su amplia aceptación y adopción
en todo el mundo.

Evolución Moderna y Digitalización:


En la era moderna, el sistema de numeración decimal continúa desempeñando un
papel fundamental en la sociedad y la tecnología, especialmente en el ámbito de la
informática y la computación.

Digitalización y Computación:
 Con la llegada de la informática, el sistema de numeración decimal se ha
integrado en la mayoría de los sistemas numéricos utilizados en
tecnología y computación.
 Los dígitos decimales se utilizan en la representación de datos y cálculos
en sistemas digitales y computadoras.

Continua Relevancia y Utilidad:


 A pesar de los avances tecnológicos, el sistema de numeración decimal
sigue siendo fundamental para la comunicación y el intercambio de
información en la sociedad moderna.
 Su uso generalizado en una variedad de contextos demuestra su continua
relevancia y utilidad en el mundo contemporáneo.

Sistema de numeración decimal


El sistema de numeración decimal es un sistema de numeración posicional en
el que las cantidades se representan utilizando como base aritmética el
número diez. El conjunto de símbolos utilizado (sistema de numeración
arábiga) se compone de
diez cifras: cero (0), uno (1), dos (2), tres (3), cuatro (4), cinco (5), seis (6), siet
e (7), ocho (8) y nueve (9).
Excepto en ciertas culturas, es el sistema usado habitualmente en todo el mundo
y en todas las áreas que requieren de un sistema de numeración.

Un número decimal (también a menudo simplemente decimal o, menos


correctamente, número decimal), se refiere generalmente a la notación de un
número en el sistema numérico decimal. Los decimales pueden identificarse a
veces con un separador decimal (normalmente "." o "," como
en 25.9703 o 3,1415). Decimal también puede referirse específicamente a los
dígitos después del separador decimal, como en "3.14 es la aproximación de π
a dos decimales". Los dígitos cero después del separador decimal sirven para
indicar la precisión de un valor.

Los números que pueden representarse en el sistema decimal son las fracciones
decimales. Es decir, fracciones de la forma a/10n, donde a es un número entero,
y n es un número entero no negativo.

El sistema decimal se ha extendido a decimales infinitos para representar


cualquier número real, mediante el uso de una secuencia infinita de dígitos
después del separador decimal (véase representación decimal). En este
contexto, los números decimales con un número finito de dígitos distintos de cero
después del separador decimal se denominan a veces decimales terminales.
Un decimal repetitivo es un decimal infinito que, después de algún lugar, repite
indefinidamente la misma secuencia de dígitos (por
ejemplo, 5.123144144144144... = 5.123144). Un decimal infinito representa
un número racional, el cociente de dos enteros, si y sólo si es un decimal que se
repite o tiene un número finito de dígitos distintos de cero.

Origen
Muchos sistemas numéricos de civilizaciones antiguas utilizan el diez y sus
potencias para representar números, posiblemente porque hay diez dedos en
las dos manos y la gente empezó a contar utilizando los dedos. Algunos
ejemplos son, en primer lugar, los numerales egipcios, luego los numerales
brahmi, los numerales griegos, los numerales hebreos, los numerales
romanos y los numerales chinos. Los números muy grandes eran difíciles de
representar en estos antiguos sistemas numéricos, y sólo los mejores
matemáticos eran capaces de multiplicar o dividir números grandes. Estas
dificultades se resolvieron completamente con la introducción del sistema
numérico hindú-árabe para representar números enteros. Este sistema se ha
extendido para representar algunos números no enteros, llamados fracciones
decimales o números decimales, para formar el sistema numérico decimal.

Notación decimal
Para números enteros

Al ser posicional, el sistema decimal es un sistema de numeración en el cual el


valor de cada dígito depende de su posición dentro del número. Para números
enteros, comenzando de derecha a izquierda, el primer dígito le corresponde el
lugar de las unidades, de manera que el dígito se multiplica por 100 (es decir 1) ;
el siguiente dígito corresponde a las decenas (se multiplica por 101=10); el
siguiente a las centenas (se multiplica por 102=100); el siguiente a las unidades
de millar (se multiplica por 103=1000) y así sucesivamente, nombrándose este
según su posición siguiendo la escala numérica correspondiente (larga o corta).
El valor del número entero es la suma de los dígitos multiplicados por las
correspondientes potencias de diez según su posición.

Para números no enteros


Se puede extender este método para los decimales, utilizando las potencias
negativas de diez, y un separador decimal entre la parte entera y la parte
fraccionaria, que queda a la derecha. En este caso, el primer dígito a la derecha
del separador decimal corresponde a las décimas (se multiplica por 10-1=0,1);
el siguiente a las centésimas (se multiplica por 10-2=0,01); el siguiente a las
milésimas (se multiplica por 10-3=0,001) y así sucesivamente, nombrándose
estos según su posición, utilizando el partitivo decimal correspondientes.
Computación decimal
La mayoría de los sistemas de hardware y software informáticos modernos
suelen utilizar internamente un representación binaria (aunque muchos de los
primeros ordenadores, como el ENIAC o el IBM 650, utilizaban internamente la
representación decimal).4Para uso externo de especialistas en informática, esta
representación binaria se presenta a veces en los
sistemas octal o hexadecimal relacionados.

Para la mayoría de los propósitos, sin embargo, los valores binarios se


convierten a o desde los valores decimales equivalentes para su presentación a
o entrada de los seres humanos; programas de ordenador expresan literales en
decimal por defecto. (123,1, por ejemplo, se escribe así en un programa
informático, aunque muchos lenguajes informáticos son incapaces de codificar
ese número con precisión).

Tanto el hardware como el software de los ordenadores utilizan también


representaciones internas que son efectivamente decimales para almacenar
valores decimales y realizar operaciones aritméticas. A menudo esta aritmética
se realiza sobre datos codificados utilizando alguna variante del decimal
codificado en binario, especialmente en implementaciones de bases de datos,
pero hay otras representaciones decimales en uso (incluyendo coma flotante
decimal como en las revisiones más recientes del IEEE 754 Standard for
Floating-Point Arithmetic).

La aritmética decimal se utiliza en los ordenadores para que los resultados


fraccionarios decimales de sumar (o restar) valores con una longitud fija de su
parte fraccionaria siempre se calculen con esta misma longitud de precisión.
Esto es especialmente importante para los cálculos financieros, por ejemplo, que
requieren en sus resultados múltiplos enteros de la unidad monetaria más
pequeña a efectos contables. ¡Esto no es posible en binario, porque las
potencias negativas de 10 no tienen representación fraccionaria binaria finita; y
es generalmente imposible para la multiplicación (o división)!
Historia
Según los antropólogos, el origen del sistema decimal está en los diez dedos
que tienen los hombres en las manos que siempre han servido como base
para contar.

También existen algunos vestigios del uso de otros sistemas de numeración,


como el quinario, el duodecimal y el vigesimal.

El desarrollo de las cifras del uno al nueve, se hizo en la India según


las Inscripciones De Nana Ghat en el siglo iii a. C. sin sistema de posición de
ellas. esto último hace su primera aparición en el 458 en el
documento Lokavibhaga, un tratado de cosmología escrito en sánscrito.
Aparece el número 14 236 713 y el cero, el vacío donde ocupan la
palabra sunya.

Más tarde este sistema lo toman los árabes cambiando el aspecto de las cifras
llamadas ghobar en las cifras que usamos hoy 1,2,3,4,5,6,7,8,9,0.

También podría gustarte