Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Trabajo Tema Ii Calidad de Medicion

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 9

República Bolivariana de Venezuela

Ministerio del Poder Popular para la Educación Ciencia y Tecnología


Universidad Politécnica Territorial del Norte de Monagas “Ludovico Silva”
Programa Nacional de Formación en Instrumentación y Control
Punta de Mata, Estado Monagas

TEMA II. CALIDAD DE MEDICION

Profesora: Bachiller:

Ing. Noirlaliz Lara Roger Abraham Piñero

Velásquez

CI: 27189789

Maturín, 17 de mayo de 2021


Vocabulario internacional de términos fundamentales y generales de
metrología (VIM).

El Vocabulario Internacional de Metrología – Conceptos fundamentales y


generales, y términos asociados (VIM) es un documento que compila y
estandariza los conceptos que rigen las ciencias de la medición en los
laboratorios.
Este Vocabulario proporciona un conjunto de definiciones y de términos
asociados, en idioma español.

Análisis.
Este Vocabulario proporciona un conjunto de definiciones y de términos
asociados, en idioma español, para un sistema de conceptos fundamentales y
generales utilizados en metrología, así como diagramas conceptuales que
representan sus relaciones. En muchas de las definiciones se da información
complementaria por medio de ejemplos y notas. Este Vocabulario pretende ser
una referencia común para científicos, ingenieros, físicos, químicos, médicos,
biólogos, así como para profesores, estudiantes y todo aquel, implicado en la
planificación o realización de mediciones, cualquiera que sea el campo de
aplicación y el nivel de incertidumbre de la medida. Pretende también ser una
referencia para organismos gubernamentales e intergubernamentales,
asociaciones empresariales, comités de acreditación, entidades reguladoras y
asociaciones profesionales. Los conceptos utilizados en los diferentes enfoques
descriptivos de las mediciones se presentan de manera conjunta. Las
organizaciones miembros del JCGM pueden seleccionar conceptos y definiciones
conforme a sus respectivas terminologías. Sin embargo, este Vocabulario intenta
promover la armonización global de la terminología utilizada en metrología.

Magnitud: (definición, representación, redondeo y cifras significativas).

Definición: Magnitud es toda aquella propiedad de los cuerpos que puede ser medida,
como el tamaño, el peso o la extensión.

Representación.

Magnitud fundamental
Es aquella magnitud que no se define mediante otras magnitudes, por lo tanto, son
independientes.
Las magnitudes fundamentales son la masa, el tiempo, la temperatura, la longitud,
la temperatura, la cantidad de sustancia, la intensidad lumínica o la intensidad de
corriente, usadas en el Sistema Internacional de Unidades. Existe el Sistema
Cegesimal de Unidades, es decir, un sistema de unidades mecánicas que utiliza
como magnitudes fundamentales la longitud, la masa y el tiempo.
Magnitud derivada
Es aquella magnitud que se define a partir de magnitudes fundamentales.
Las magnitudes pueden definirse mediante un número, por lo que decimos
que son magnitudes escalares; en cambio, si en la magnitud hay que
especificar dirección y sentido, las llamamos magnitudes vectoriales.
Cuando tenemos una fórmula, es decir una ecuación, que relacione las
magnitudes fundamentales para obtener una magnitud fundamental, es lo
que llamamos ecuación de dimensiones.
Redondeo: Se trata de despreciar las cifras situadas a la derecha de la
última cifra significativa.

¿Cómo se redondea?

Si la cifra despreciada es mayor que 5, la anterior se incrementa una unidad. Si la


cifra es menor a 5, la anterior no se altera. Si es igual a 5, la anterior se
incrementa si es impar.

Sumas o restas: El resultado lleva el número de decimales que menor tenga.

Multiplicaciones o divisiones, se redondean hasta que el resultado tenga el mismo


número de cifras significativas del dato que menor tenga.

Cifras significativas de una medida: Son el conjunto de cifras exactas y aquellas


sometidas a error.
Al tomar nuestros datos tendremos una serie de medidas. Todas las cifras de una
medida (ya sean o no con error) se llaman cifras significativas de una medida
Al obtener estas medidas tenemos que saber cuáles de estos dígitos podemos
despreciar, ya que pertenecen al error de la medida. Es decir, nuestros resultados
no pueden tener más cifras que la precisión de nuestro instrumento de medida.

Análisis.
Uno de las grandes preocupaciones del ser humano era cuantificar las cosas, es
decir, poder dar una valor cuantitativo o cualitativo a las cosas. Por ejemplo,
podemos medir la distancia entre dos puntos de forma precisa, o la temperatura
actual en una habitación, incluso el pH de una disolución… igual podemos medir,
pero de forma menos precisa y más relativa a quien realiza la medición la belleza
de una casa o el sabor de una comida.
Cuando realizamos algún tipo de operación matemática puede ser
interesante reducir el número de decimales que obtenemos para evitar trabajar
con valores excesivamente grandes. El redondeo puede ayudar a esta tarea
provocando que los resultados sean lo más precisos posibles.

Se denomina redondeo al proceso de eliminar las cifras situadas a la derecha de


la última cifra significativa.

Error: (definición, tipos, teorías de errores, clasificación de los errores,


tratamiento estadístico de error).

Error de medida: Toda medición conlleva un mayor o menor grado de variación, a


veces depende de la persona que realiza la medición, otras del propio
instrumento. Cuanto menor sea la interacción humana con la medición, mejor. Por
lo que sólo es posible evitar lo más posible el error propio del instrumento, es lo
que llamamos incertidumbre o error, también llamado error experimental.

El error de medición se define como la diferencia entre el valor medido y el "valor


verdadero". Los errores de medición afectan a cualquier instrumento de medición y
pueden deberse a distintas causas.

Tipos de errores de medición principales

1- Error aleatorio

Los errores aleatorios son aquellos que se dan cuando se hacen medidas
consecutivas de un mismo objeto o fenómeno, obteniendo valores diferentes en
cada caso.

En las ciencias sociales los errores aleatorios están representados por


condiciones que afecten de manera particular a un miembro de la muestra que
está siendo analizada.

2- Error sistemático
A diferencia de los errores aleatorios, los errores sistemáticos dependen
directamente del sistema que se está empleando para realizar la medición. Por
este motivo, son errores constantes.

Si se emplean instrumentos descalibrados, estos arrojarán medidas erróneas. El


error se va a presentar incluso si se repite el proceso de medición.

En las ciencias sociales, el error sistemático se produce cuando hay una condición
que afecte de manera general el desempeño de todos los individuos de la
muestra.

3- Error despreciativo

Es aquel error que, por ser mínimo, no constituye un problema para las
mediciones que se están llevando a cabo.

4- Error significativo

El error significativo es aquel que representa un problema para el trabajo que se


está realizando. Si la diferencia de medidas es muy grande, evidentemente se
tratará de un error significativo.

Hay casos en los que la diferencia es mínima pero igualmente es significativa.

5- Error por defectos en el instrumento empleado

Muchos de los errores que se cometen al momento de hacer mediciones pueden


ser atribuidos a los instrumentos que se emplean.

Existen algunos instrumentos que requieren ser calibrados para que las medidas
obtenidas sean precisas.

Los termómetros deben ser sometidos a mantenimiento y


calibración cada cierto tiempo, para que no existan errores
significativos en las medidas de la temperatura.

6- Error causado por la persona que toma la medida


El ser humano es imperfecto. Por lo tanto, cuando un individuo es el encargado de
tomar las mediciones, existe un margen de probabilidades de que se cometa un
error.

7- Error debido a las condiciones ambientales

Las temperaturas, el sonido y otros estímulos del ambiente también afectan las
mediciones.

8- Error debido a accidente

Una medición puede verse alterada por diversas causas incontrolables no


naturales que generan un accidente.

Teoría de errores

Estimación de errores en las medidas

Dado que el valor de las magnitudes físicas que intervienen en una experiencia dada
obtenidas por medida, bien directa o bien indirecta (por medio de los valores
medidos de otras magnitudes ligadas con la magnitud problema mediante una
fórmula física) viene siempre afectado de imprecisiones (imperfecciones del aparato
de medida, o a las limitaciones impuestas por nuestros sentidos), debe aceptarse el
hecho de que no es posible conocer el valor exacto de ninguna magnitud. Cualquier
resultado numérico obtenido experimentalmente debe presentarse siempre
acompañado de un número que indique cuánto puede alejarse este resultado del
valor exacto. El principal objetivo de la denominada teoría de errores consiste en
acotar el valor de dichas imprecisiones, denominadas errores experimentales.

Clasificación de los errores

El error se define como la diferencia entre el valor verdadero y el obtenido


experimentalmente. El origen de los errores está en múltiples causas y atendiendo
a éstas los errores se pueden clasificar en errores sistemáticos y errores
accidentales.

Errores sistemáticos son errores que se repiten constantemente en el transcurso de


un experimento. Afecta a todas las mediciones de un modo definido y es el mismo
para todas ellas. Las causas probables pueden ser: errores instrumentales (de
aparatos), errores personales, error de la elección del método.
Errores accidentales son variaciones que aparecen entre observaciones sucesivas
realizadas por un mismo operador. No existe una causa predeterminada para este
tipo de errores siendo incontrolables para un observador. Alteran la medida
realizada tanto por exceso como por defecto. El origen de estos errores accidentales
puede ser el cambio durante el experimento de las condiciones en el entorno,
errores de apreciación del observador, errores de precisión del aparato de medida,
etc.

Tratamiento Estadístico de Errores

Al hacer una medición es acostumbrados tener fallos en las mediciones o errores


sistemáticos, un error sistemático es aquel que se produce de igual modo en todas
las mediciones que se realizan de una magnitud. Puede estar originado en un
defecto del instrumento, en una particularidad del operador o del proceso de
medición, etc. Se contrapone al concepto de error aleatorio. En la presente
experiencia, utilizaremos herramientas estadísticas para evaluar y presentar el
error aleatorio de un conjunto de datos.

Análisis.

El error de medición se define como la diferencia entre el valor medido y el "valor


verdadero". Los errores de medición afectan a cualquier instrumento de medición y
pueden deberse a distintas causas. Las que se pueden de alguna manera prever,
calcular, eliminar mediante calibraciones y compensaciones, se denominan
deterministas o sistemáticos y se relacionan con la exactitud de las mediciones.
Los que no se pueden prever, pues dependen de causas desconocidas,
o estocásticas se denominan aleatorios y están relacionados con la precisión del
instrumento.

Incertidumbre: (definición, incertidumbre de medición, incertidumbre de


´procesos, factores de influencia, guía de la expresión de la incertidumbre
(GUM).

Incertidumbre: Falta de seguridad, de confianza o de certeza sobre algo, especialmente


cuando crea inquietud. duda.

Incertidumbre de medida / Incertidumbre: Parámetro no negativo que caracteriza


la dispersión de los valores atribuidos a un mensurando, a partir de la información
que se utiliza.
La incertidumbre es un concepto fundamental en el mundo de la metrología,
aunque su definición puede ser un poco confusa, básicamente la incertidumbre es
un parámetro que representa cuantitativamente la “duda” que tenemos sobre
la medición realizada. Todos los valores obtenidos en una medición poseen un
componente de duda, relacionada a cuán confiable es la medición que estamos
realizando.

Incertidumbre de proceso, flujos, temperaturas, presiones, que normalmente perturban o


fluctúan cuando el proceso está en funcionamiento. Sus valores pueden ser obtenidos de
los instrumentos de medición y se describen por funciones de distribución de probabilidad.
Efecto cuantificable de los elementos ambientales, exteriores al equipo de medición, que
pueden influir en su comportamiento.

Factores que afectan las mediciones.


Errores en la medición Toda medida es aproximada, porque tiene asociada un
margen de error. Los errores son provocados por la deficiencia de los aparatos de
medición o por descuidos de las personas que miden. Hay dos clases de errores:
accidentales (error de la persona) y sistemáticos (error por defectos en el
instrumento)
Incertidumbre de la medición El valor reportado en una medición siempre tiene un
grado de incertidumbre. Como toda medida está sujeta a errores, generan duda
sobre la exactitud, esa duda se cuantifica como la incertidumbre de la medida.
Cuanto más preciso sea un instrumento, menor es el error de la medida y menor
será la incertidumbre. La incertidumbre generalmente está asociada con la última
cifra del número que expresa esa medida.
Exactitud de la medición Durante una medición no se puede garantizar la exactitud
de la medición debido a la calidad del instrumento y la habilidad de la persona que
mide. Para lograr mayor exactitud en la medición, esta se debe repetir varias
veces y calcular un promedio de las mismas
Precisión de la medición La precisión de cualquier medida depende del
instrumento con el cual se mide. La precisión de un instrumento de medición
corresponde al valor de la menor división de la escala. Una regla con escala en
mm proporciona medidas con mayor precisión que otra con escala solo en cm

La Guía para la Expresión de la Incertidumbre de Medida o GUM constituye la


referencia necesaria en cada instancia o publicación en la que se habla de
la incertidumbre o de aquel parámetro que caracteriza la dispersión asignable.
La guía GUM, es la guía para estimar la incertidumbre de medida, la incertidumbre
de medida puede ser evaluada mediante dos procedimientos distintos.
el procedimiento “paso a paso”, basado en la definición de un modelo matemático
de la medida, descrito exhaustivamente en la guía GUM, y el procedimiento “global”
o de la “caja negra”, basado en la realización de pruebas experimentales bajo las
diferentes condiciones en las que puede producirse la medida, que conducirán a la
obtención, por muestreo estadístico, de la dispersión de los valores posibles para el
mensurando.
conviene resaltar que ambos procedimientos de evaluación de la incertidumbre
cumplen los requisitos de la guía GUM, para la expresión de las incertidumbres de
medida, por lo que son perfectamente válidos desde un punto de vista técnico y,
aplicados correctamente, conducen a resultados compatibles.
Análisis.
Frecuentemente, el procedimiento “paso a paso” se asocia a la guía GUM pudiendo
dar la impresión de que el procedimiento “global” no cumpliese los requisitos de esta
guía. Esto se debe a que la guía GUM nace para dar solución a las limitaciones de
los procedimientos experimentales, tradicionalmente aplicados por los laboratorios
de ensayo, pero debe aclararse que la guía GUM establece un “procedimiento
general” que engloba y asume sin problemas a los dos procedimientos
mencionados.
Habitualmente un laboratorio de calibración va a utilizar un método basado en la
guía GUM, y un laboratorio de ensayos se basará en el método global o caja negra.
Sin embargo, cualquiera podría ser utilizado en ambos casos.

También podría gustarte