Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Practica 1 TEORIA DE ERRORES

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 7

TEORÍA DE ERRORES

I. OBJETIVOS GENERALES
Que el alumno sea capaz de.
 Comprender e identificar que los errores existen en todo proceso de medición
 Estimar las fuentes de los tipos de errores que existen.

II. INTRODUCCIÓN RACIONAL


En la ingeniería a menudo, debemos de ser capaces de analizar donde se están utilizando
una serie de eventos o lecturas que están ocasionando una serie de errores, los cuales
hay que tomarlos en cuenta para que un momento dado, poder compensarlos, y
optimizarlos o bien cuantificarlos.
La teoría de errores es una herramienta matemática que nos ayuda en forma sistemática
a realizar una optima cuantificación ya que las leyes científicas no expresan con certeza
como se comporta la naturaleza; pues dichas leyes meramente describen como se ha
comportado dentro de límites.

III. COMPORTAMIENTO DE ENTRADA


Antes de iniciar este experimento, es necesario que se tengan conocimientos básicos de
principios de técnicas estadísticas (conceptos básicos de la distribución binomial y
distribución de Poison o de Gauss).

IV. DISTRIBUCIÓN DE GAUSS


La experiencia muestra que, para todos los casos de errores casuales o aleatorios, el
histograma correspondiente a la serie de N mediciones (x1 , x2 ,..., xN ) puede ser
aproximado por una función continua bien definida y única, cuya forma es siempre la
misma, dependiendo sólo de dos parámetros que podrán variar de caso en caso. Los
datos están distribuidos alrededor del promedio x, donde habrá muchos valores que
estarán cerca del promedio y, otros menos en número, estarán lejos.

La representación gráfica de dicha función llama curva de distribución de Gauss. La


distribución da el número de observaciones en función de x y es la integral del área bajo
la curva.
La curva de Gauss presenta un máximo en x = x , es simétrica respecto de ese valor
medio presentando una forma de campana y sus puntos de inflexión son x ± σ ; tiende a
cero a medida que el valor x se aleja del promedio.

Si bien es imposible predecir el valor exacto que saldrá de una medición dada, sí se
puede decir algo sobre la probabilidad de que ese valor este comprendido en un intervalo
dado. La predicción de estas probabilidades es la utilidad fundamental de la función de
Gauss. La probabilidad de que el valor verdadero se encuentre dentro del intervalo X ±
1.σT es del 68%; la probabilidad de que se encuentre dentro del intervalo X ± 2.σT es del
96.5%, y la probabilidad de que se encuentre dentro del intervalo X ± 3.σT es del 99.7 %.

V. INTRODUCCIÓN TEÓRICA

Teoría Estadística De Errores


En esta sección se estudia cómo minimizar la incidencia de los errores casuales en la
medición de una magnitud que se repite N veces. Dado el carácter al azar de los errores
casuales es claro que, al promediar los resultados, el promedio estará menos afectado
por las desviaciones estadísticas que los valores individuales. Se asume que no se
cometen errores groseros y que los sistemáticos han sido debidamente acotados de
manera tal que, los únicos errores a considerar sean los casuales.
Para analizar la serie de N mediciones de una misma magnitud obtenida en igualdad de
condiciones se emplea la Teoría Estadística. La idea es investigar la causalidad, y en
particular, extraer alguna conclusión del efecto que algunos cambios en una de las
variables (variables independientes) tienen sobre las otras (variables dependientes).
La teoría estadística se basa en los tres postulados de Gauss:
i) Dada una serie de mediciones x1 , x2 ,...., xN , la mejor estimación de la
magnitud medida o valor más probable de la misma es el promedio aritmético
de todas las mediciones de esa cantidad efectuadas en las mismas condiciones:

Es decir, la media aritmética o promedio, de una cantidad finita de números, es igual a la


suma de todos ellos dividida entre el número de sumandos.

ii) Es igualmente probable cometer errores del mismo valor numérico y distinto
signo.
iii) En una serie de mediciones, es tanto más probable un error cuanto menor sea
su valor absoluto. Es decir, los errores más pequeños son los más probables de
cometer.
Se dice que la calidad de una medición será tanto mejor cuanto más parecidos sean entre
sí los valores medidos, o, dicho de otra forma, más parecidos al valor medio x.
Otros conceptos útiles en el análisis de una serie de mediciones son la mediana y la
moda. La mediana hace énfasis en el verdadero “centro” del conjunto de datos. En otras
palabras, la mediana es el valor central de un conjunto de observaciones ordenado por
magnitud creciente o decreciente. El propósito de la misma es reflejar la tendencia
central de la serie de medidas de manera que no esté influenciada por los valores
extremos. Mientras que la moda (M) es aquel valor que ocurre más a menudo o con
mayor frecuencia. La moda puede no existir, y cuando existe no necesariamente es
única.

El Proceso De Medición
Las mediciones exactas y confiables requieren unidades inmutables que los observadores
puedan volver a utilizar en distintos lugares. El sistema de unidades empleado por los
científicos e ingenieros en todo el mundo se llama Sistema Internacional (SI). Las
magnitudes fundamentales son aquellas elegidas por convención, que permiten expresar
cualquier otra magnitud en términos de ellas y son las siguientes: longitud, masa,
tiempo, corriente eléctrica, temperatura e intensidad luminosa.
La medición está íntimamente relacionada a la experimentación científica. Las leyes de
las ciencias experimentales se expresan en término de cantidades físicas, tales como la
fuerza, la temperatura, la velocidad, la densidad, el campo magnético y la carga. Estas
cantidades requieren de una definición clara, y de un método para medirlas.
La medición es una técnica por medio de la cual se asigna un número a una magnitud
física, a través de la comparación entre la cantidad considerada y otra de la misma
especie elegida como unidad de medida o patrón.
Medir no representa en la mayoría de los casos una tarea sencilla. Requiere definir y
ejecutar correctamente tres pasos: saber qué es lo que se va a medir, decidir cómo se va a
medir y con qué elementos se va a medir. Pueden distinguirse tres sistemas involucrados
en el proceso de medición:
1. Sistema objeto (qué): la magnitud a medir.
2. Sistema de medición (con qué elementos): el instrumento que utilizamos para medir.
3. Sistema de comparación o referencia (cómo): la unidad empleada, con su definición y
su patrón.
Ejemplo: Si se desea medir el largo de una mesa, el instrumento de medición podría ser
una regla.
Eligiendo el Sistema Internacional de Unidades (SI), la unidad será el metro y la regla
para usar deberá estar calibrada en esa unidad o submúltiplos. La medición consistirá en
determinar cuántas veces la regla y fracciones de ella entran en la longitud buscada.
El proceso, a ser efectuado por el observador, puede ser definido unívocamente en dos
pasos:
I. Calibración: involucra el sistema de medición y el sistema de comparación.
II. La medición propiamente dicha: involucra el sistema objeto y el sistema de medición.
Una parte importante de la medición es la determinación del error o el análisis de
errores

Errores En El Proceso De Medición


En todo proceso de medición existen limitaciones dadas por los instrumentos usados, el
método de medición y/o el observador que realiza la medición. Estas limitaciones
generan una diferencia entre el valor real o verdadero de la magnitud y la cantidad
obtenida para la misma luego de medir. Dicha diferencia se debe a la incerteza o el error
en la determinación del resultado de una medición; esta es inevitable y propia del acto
de medir. Entonces, no hay mediciones reales con error nulo.
Coloquialmente, es usual el empleo del término error como análogo o equivalente a
equivocación. En ciencia e ingeniería, el error está más bien asociado al concepto de
incerteza (también llamada inexactitud o incertidumbre) en la determinación del
resultado de una medición. Por ello se dice que se conoce el valor de una magnitud dada
en la medida en que se conocen sus errores. Con la indicación del error de medición se
expresa, en forma cuantitativa y lo más precisamente posible, las limitaciones
introducidas en la determinación de la magnitud medida.
Como consecuencia de la existencia de diferentes fuentes de error, el científico se plantea
hasta qué punto los resultados obtenidos son fiables, esto es, dignos de confianza. Por
ello, al resultado de una medida se le asocia un valor complementario que indica la
calidad de la medida o su grado de precisión. Existen tres maneras de cuantificar e
informar el error de medición: el Error absoluto, el Error Relativo y el Error Relativo
Porcentual.
Se define el error absoluto ΔE, como la diferencia entre el resultado de la medida M y el
verdadero valor M0 de la magnitud a medir
Δ E=M−M 0
En sentido estricto esta definición no es aplicable a medidas físicas propiamente, ya que
el valor exacto de una magnitud jamás lo conoceremos. Por esta razón se toma como M0
el valor que más se aproxima al verdadero, es decir, el valor medio obtenido al repetir
varias veces la misma medida.
El Error Relativo ER es el cociente entre el error absoluto ΔE y el verdadero valor, que
como dijimos se toma como el valor medio.
E R= Δ M / M 0
El Error Relativo porcentual es el ER expresado en tanto por ciento, su expresión es:
ER (%) = ER *100%

Clasificación De Los Errores De Medición


Los errores pueden clasificarse según su naturaleza como:
 Los errores sistemáticos (o sesgo) son errores inherentes al procedimiento de
medición. Se deben en general a imperfecciones del instrumento, a la aplicación
de un método erróneo, a la acción permanente de una causa exterior, etc. Actúan
siempre con el mismo signo; por lo tanto, al reiterar las observaciones sus efectos
se suman. Por ejemplo, un instrumento descalibrado repetirá, si se mide varias
veces en las mismas condiciones, el mismo error con el mismo signo; es posible
eliminarlo contrastando el instrumento con un patrón (esto es, calibrándolo).
Estos errores son generalmente previsibles y pueden ser acotados, ya sea por la
aplicación de correcciones o por dispositivos especiales del instrumento.
 Los errores casuales o aleatorios se deben a perturbaciones que provienen de
fuentes de error independientes e imposibles de detectar. Dan lugar a
desviaciones pequeñas positivas y negativas, siendo más frecuentes cuanto más
pequeña es la desviación. Este tipo de errores se acotan mediante un tratamiento
estadístico.

VI. DESARROLLO

Material Empleado:
 Vernier de metal
 Vernier de plástico
 Metro
 Regla de Metal
 5 instrumentos dados por el profesor.

1. Observamos, analizamos y comprendimos cada uno de los instrumentos de


medición, así como los objetos a medir.
2. Verificamos que los instrumentos de medición estén bien calibrados.
3. Tomamos los materiales del laboratorio de física I y procedimos a tomar las
medidas correspondientes

1 2 3 4 5
Metro Ancho 1.4 1.4 1.2 1.8 2.2
Largo 1.7 2.4 2.9 2.2 2.5
Regla Ancho 1.2 1.2 1.2 1.9 2.2
Largo 1.5 2.2 2.8 2.2 2.5
Vernier de Ancho 1.25 1.25 1.29 1.8 2.29
plástico Largo 1.59 2.23 2.85 2.29 2.5
Vernier de Ancho 1.26 1.26 1.35 1.99 2.25
metal Largo 1.57 2.23 2.95 2.35 2.54

VII. CONCLUSIONES
Como hemos venido diciendo, todas las cantidades físicas se miden, inevitablemente,
con algún grado de incertidumbre, ya sea por las imperfecciones de los instrumentos de
medida, por fluctuaciones estadísticas incontroladas durante el proceso de medición o
por a las limitaciones de nuestros sentidos.
Por lo tanto, los resultados de las medidas nunca se corresponden con los valores reales,
sino que, en mayor o menor extensión, son defectuosos, es decir, están afectados de
error.
La interacción entre el sistema físico y el aparato de medida constituye la base del
proceso de medida; pero dicha interacción perturba en cierto grado las condiciones en
las que se encontraba el sistema antes de la medida.

¿Qué entiende usted por resolución del instrumento de medición?


Se dice que es la más pequeña unidad legible o límite de detección y esta es una
propiedad determinada por el diseño del instrumento de medición.

¿Qué entiende usted por repetibilidad de un instrumento de medición?


Es una variación causada por el dispositivo de medición, es la variación, que se observa
cuando el mismo operador mide la misma parte muchas veces usando el, mismo
dispositivo

¿Qué tipo de error se comete al no elegir una escala correcta de medición?


Error de tipo sistemático.

¿Se puede decir que un instrumento es preciso pero inexacto?


Exacto, se podría decir que exactitud y precisión son lo mismo, pero no es así, ya que la
precisión comienza a partir de una medida estipulada con anterioridad a una medición
basándose en la coincidencia de los resultados. A diferencia de la exactitud en la cual se
ve el grado de coincidencia de los resultados con los de una medida ya establecida.

Camacho Rivera Karen Zeltzin


Arteaga Ambriz José Antonio
Ramírez Hernández Alejandro Jesús
Álvarez Catalán Christian Alan
Grupo: 1SM12

También podría gustarte