Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

ERRORES

Descargar como pptx, pdf o txt
Descargar como pptx, pdf o txt
Está en la página 1de 19

MÉTODOS NUMÉRICOS

• Docente: Martín Culquitante García


• Semana 1: Errores
¿Qué son los Métodos Numéricos?

Los Métodos Numéricos son procedimientos mediante el cual se


obtiene, casi siempre de manera aproximada, la solución de ciertos
problemas realizando cálculos puramente aritméticos y lógicos. Un
tal procedimiento consiste de una lista finita de instrucciones
precisas que especifican una secuencia de operaciones algebraicas y
lógicas (algoritmo), que producen o bien una aproximación de la
solución del problema (solución numérica) o bien un mensaje.
¿Qué son los Métodos Numéricos?

La eficiencia en el cálculo de dicha aproximación depende, en


parte, de la facilidad de implementación del algoritmo y de las
características especiales y limitaciones de los instrumentos de
cálculo (los computadores). En general, al emplear estos
instrumentos de cálculo se introducen errores llamados de
redondeo.
Introducción

Los métodos numéricos ofrecen soluciones aproximadas muy


cercanas a las soluciones exactas de los problemas.

En la práctica profesional, los errores pueden resultar


costosos, y en algunas ocasiones catastróficos.
La discrepancia entre una solución verdadera y una
aproximada representa un error.
Por ello, los errores se deben:

 Identificar 

 Cuantificar

 Minimizar
Los Métodos Numéricos es una materia del Cálculo o de
las Matemáticas Aplicadas, que muestra cómo a
través de fórmulas e iteraciones podemos obtener
resultados bastante aproximados para diversos
problemas que se pueden plantear.

Se deben tener conocimientos de Cálculo Matemático,


Series, Algebra Lineal, Aritmética y Trigonometría, entre
otras cosas.
Conceptos Básicos
 Precisión: qué tan cercanos se encuentran los
valores
unos de otros.
 Imprecisión: esparcimiento de las mediciones.

 Exactitud: aproximación de un número o de una


medida al valor verdadero.
 Inexactitud: alejamiento sistemático de la
  realidad.
Exactitud y precisión
Tipos de Errores

En el desarrollo de los métodos numéricos se trabaja con


números, por lo que es necesario establecer la confiabilidad
de un número. Los términos precisión y exactitud están
asociados con los errores que se generan en secuencias
largas de operaciones aritméticas.

La precisión se refiere al número de cifras significativas


usadas para representar una cantidad mediante un número.
La exactitud se refiere a la representación correcta de
una cantidad mediante un número.

Los métodos numéricos deben ser lo suficientemente exactos y


precisos para resolver un problema científico.

Definición de Error.- Los errores están asociados con el uso


de los métodos numéricos, así como con el procesamiento de
la información en las computadoras o en las calculadoras de
bolsillo.
La diferencia del valor exacto (Ve) y un valor
aproximado (Va) se le llama error (E).

La relación entre el resultado exacto o verdadero,


y el aproximado esta dado por:
Definiciones de los tipos de errores:

Error absoluto

Error Relativo
y luego el Error Relativo Porcentual como:

Sin embargo, el valor exacto normalmente no se conoce. Ya


que en algunos casos el método numérico aproxima la
solución mediante un proceso iterativo, por lo que es mejor
definir un error aproximado (a)
Error por Truncamiento: Diferencia entre una formulación
matemática exacta de un problema y la aproximación dada
por un método numérico.

Error Numérico Total.- Es la suma de los


errores anteriores.

Errores Humanos.- Estos se deben a equivocaciones


que comete el ejecutor del método.
Error por Redondeo:

 Resulta del uso de cantidades con un número


finito de dígitos.
 El último dígito que se conserva aumenta en 1 si
el primer dígito que se descarta es mayor o igual
a 5.
 Si es menor a 5, el último digito que se conserva
permanece con el mismo valor.
Ejemplo:

Tomemos el valor de π = 3,141 592 653 589 793

Por truncamiento Por redondeo


3,1415 3,1416
Cifras Significativas

Número de dígitos que se pueden usar con


confianza. Incluyen enteros y decimales.
Ejemplos:
 a.- 2,2 – 1,768 (2 cifras significativas)
 
2,2 – 1,768 = 0,432 ≈ 0,4
 b.- 0,0642 x 4,8 (3 cifras significativas)
 

0,0642 x 4,8 = 0,30816 ≈ 0,31


  c.- 945 ÷ 0,3185 (4 cifras significativas)
945 ÷ 0,3185 = 2 967, 032 967 … ≈
2967

También podría gustarte