Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Universidad Interactiva y A Distancia Del Estado de Guanajuato (Unideg)

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 47

UNIVERSIDAD:

Universidad interactiva y a Distancia del Estado de Guanajuato (Unideg)

MATERIA:
Control Estadístico de la Calidad

PROFESOR:
Ing. José Manuel Ayala

ALUMNOS:
Grupo 2 Ing. Industrial

ACTIVIDAD:
Actividad 1
Conceptos básicos del control estadístico de Calidad

FECHA:

25/09/2018
ACCIÓN CORRECTIVA:

Actividad realizada para eliminar la causa del problema y brindar solución a los
problemas presentados en la prestación del servicio y/o Sistema de Gestión
(Calidad y/o Integral), esta se lleva a cabo por medio de una lluvia de ideas o
diagrama de espina de pescado, para hacer un análisis profundo de la situación
encontrar las causas y darle una solución definitiva para que no se vuelva a
presentar.

Dentro de un proceso de Gestión de Calidad, las acciones correctivas son todas


aquellas decisiones, medidas, actividades y soluciones orientadas a la eliminación
de causas potenciales y reales de un problema.

La acción correctiva no debe confundirse con la acción preventiva, que es aquella


que se aplica antes de que tengan lugar los fallos. Tal y como su nombre indica, la
idea es corregir algo que ha fallado dentro del proceso de calidad y que necesita
una intervención urgente, además de soluciones eficaces, entre otros. El objetivo
es que estos fallos no vuelven a repetirse.

AMEF:

El Análisis del Modo y Efecto de Fallas (AMEF), es un procedimiento que permite


identificar fallas en productos, procesos y sistemas, así como evaluar y clasificar
de manera objetiva sus efectos, causas y elementos de identificación, para de esta
forma, evitar su ocurrencia y tener un método documentado de prevención.

Una de las ventajas potenciales del AMEF, es que esta herramienta es un


documento dinámico, en el cual se puede recopilar y clasificar mucha información
acerca de los productos, procesos y el sistema en general. La información es un
capital invaluable de las organizaciones.
MARCOS VELASQUEZ ESPINOZA

CALIDAD (BASADO EN LA NORMA ISO 9000-2015)

Esta Norma Internacional proporciona los conceptos fundamentales, los principios


y el vocabulario para los sistemas de gestión de la calidad.

Esta Norma Internacional propone un SGC bien definido, basado en un marco de


referencia que integra conceptos, principios, procesos y recursos fundamentales
establecidos relativos a la calidad para ayudar a las organizaciones a hacer
realidad sus objetivos.

Contiene siete principios de gestión de la calidad.

Principio 1: Enfoque al Cliente.

La empresa debe tener claro que las necesidades de sus clientes no son
estáticas, sino dinámicas y cambiantes a lo largo del tiempo, además de ser los
clientes cada vez más exigentes y cada vez está más informado

Principio 2: Liderazgo

El liderazgo es una cadena que afecta a todos los directivos de una organización,
que tienen personal a su cargo. Si se rompe un eslabón de esa cadena, se rompe
el liderazgo de la organización

Principio 3: Participación del personal

La motivación del personal es clave, así como una red de comunicación que
permita que todos conozcan los objetivos y su participación en la consecución de
los mismos, así como un feedback adecuado, donde todos puedan aportar ideas
innovadoras y propuestas de mejora
Principio 4: Enfoque basado en procesos

El cambio reside en la concepción de “organización”. Ha dejado de ser una


organización por departamentos o áreas funcionales para ser una organización
por procesos orientados para la gestión de la creación de valor para los clientes.

Principio 5: Mejora

Esa mejora continua de los procesos se consigue siguiendo el ciclo PCDA del Dr.
E. Deming: Planificar – Desarrollar – Controlar – Actuar, para mejorar.

Principio 6: Enfoque basado en hechos para la toma de decisión

Para tomar decisiones acertadas, frías y objetivas debemos asegurarnos de


minimizar toda subjetividad que pueda afectarlas.

Principio 7: Gestión de las Relaciones

Es necesario conocer, escuchar y fomentar el desarrollo de las partes interesadas,


desarrollando alianzas estratégicas con el objetivo de ser más competitivos y
mejorar la productividad, la rentabilidad, y la relación con la sociedad.

Esta Norma Internacional contiene los términos y definiciones que se aplican en


todas las normas de gestión de la calidad y las normas de sistemas de gestión de
la calidad desarrolladas por el Comité Técnico ISO/TC 176, y otras normas de
SGC sectoriales basadas en aquellas normas, en el momento de su publicación,
La empresa tiene que mejorar de forma continua la idoneidad, adecuación y
eficacia del Sistema de Gestión de la Calidad según la norma ISO 9001:2015.
Referencias
WEB, S. (s.f.). https://www.iso.org/obp/ui/es/#iso:std:iso:9000:ed-4:v1:es. Obtenido de ISO.

JOEL CONTRERAS FRIAS

CONTROL: El control de calidad consiste en la implantación de programas,


mecanismos, herramientas y/o técnicas en una empresa para la mejora de la
calidad de sus productos, servicios y productividad, el control de la calidad es una
estrategia para asegurar el cuidado y mejora continua en la calidad ofrecida.

Objetivos

Establecer un control de calidad significa ofrecer y satisfacer a los clientes al


máximo y conseguir los objetivos de la empresa. Para ello, el control de calidad
suele aplicarse a todos los procesos de la empresa. En primer lugar, se obtiene la
información necesaria acerca de los estándares de calidad que el mercado espera
y, desde ahí, se controla cada proceso hasta la obtención del producto/servicio,
incluyendo servicios posteriores como la distribución.

Ventajas de establecer procesos de control de calidad

Muestra el orden, la importancia y la interrelación de los distintos procesos de la


empresa. Se realiza un seguimiento más detallado de las operaciones.

Se detectan los problemas antes y se corrigen más fácilmente.

Plan de calidad

Es un plan donde se recogen los proyectos y acciones orientados a maximizar la


calidad de las operaciones y, por consiguiente, la satisfacción de los
consumidores.

Estas acciones han de ser lo suficientemente relevantes como para tener un


impacto en los objetivos de la compañía.
CAPACIDAD DEL PROCESO: La capacidad de proceso es el grado de
aptitud que tiene un proceso para cumplir con las especificaciones técnicas
deseadas. Cuando la capacidad de un proceso es alta, se dice que el proceso es
capaz, cuando se mantiene estable a lo largo del tiempo, se dice que el proceso
está bajo control, cuando no ocurre esto se dice que el proceso no es adecuado
para el trabajo o requiere de inmediatas modificaciones.

MARCO ANTONIO ARMENTA

CONFORMANCIA.
Esto se refiere básicamente al grado en que el producto o servicio cumple con los
estándares o normas de calidad.
En este concepto la frase de “Hacer las cosas bien a la primera vez” queda
perfectamente ya que es la calidad de conformancia se enfoca a la manera de
hacer las cosas con materiales correctos, maquinaria y equipos en buen estado,
personal capacitado y motivado.

PHVA.
Es el ciclo de mejora continua que consiste en Planear, Hacer, Verificar y Actuar.
En cualquier actividad se requiere el ciclo de mejora PHVA.
Planear. - consiste en establecer los objetivos en tiempo y meta describiendo
cada una de las actividades, marcar tiempos personas que desempeñaran las
labores, señalándoles que hacer, como hacerlo bajo un procedimiento para el
logro de los mismos.
Hacer. - Actuar sobre las actividades de acuerdo a lo establecido en lo planeado.
Verificar. -Constantemente tenemos que verificar nuestros procesos contra los
objetivos y metas con la finalidad de estar seguros que vamos por el camino
correcto.
Actuar. -Retomar el camino incluso perfeccionando nuestras actividades para el
cumplimiento y poner nuevos objetivos y metas. Aquí surgen las preguntas ¿qué
podemos mejorar y como lo podemos mejorar?
HIPOLITO ZUÑIGA

COEFICIENTE DE VARIACIÓN
El coeficiente de variación, también denominado como coeficiente de variación de
Spearman, es una medida estadística que nos informa acerca de la dispersión
relativa de un conjunto de datos. Su cálculo se obtiene de dividir la desviación
típica entre el valor absoluto de la media del conjunto y por lo general se expresa
en porcentaje para su mejor comprensión.

El coeficiente de variación se puede ver expresado con las letras CV o r,


dependiendo del manual o la fuente utilizada. Su fórmula es la siguiente:

El coeficiente de variación se utiliza para comparar conjuntos de datos


pertenecientes a poblaciones distintas. Si atendemos a su fórmula, vemos que
este tiene en cuenta el valor de la media. Por lo tanto, el coeficiente de variación
nos permite tener una medida de dispersión que elimine las posibles distorsiones
de las medias de dos o más poblaciones.

El coeficiente de variación elimina la dimensionalidad de las variables y tiene en


cuenta la proporción existente entre una medida de tendencia y la desviación
típica o estándar.
CAPACIDAD DE UN PROCESO
Una necesidad muy frecuente en los procesos consiste en evaluar la variabilidad y
tendencia central de una característica de calidad, para así compararla con sus
especificaciones de diseño. La capacidad de proceso es el grado de aptitud que
tiene un proceso para cumplir con las especificaciones técnicas deseadas.
Cuando la capacidad de un proceso es alta, se dice que el proceso es capaz,
cuando se mantiene estable a lo largo del tiempo, se dice que el proceso está bajo
control, cuando no ocurre esto se dice que el proceso no es adecuado para el
trabajo o requiere de inmediatas modificaciones.
Mientras los procesos no sufran modificaciones o reajustes, para evaluar su
capacidad suele recurrirse a algunas de las siete herramientas de la calidad, tales
como:

 Histogramas
 Gráficos de control
 Planillas de inspección

Cuando el proceso se ve modificado, por ejemplo, con la implementación de una


nueva máquina, o con un reajuste de métodos, debe efectuarse un estudio de
índices de capacidad.

El concepto de capacidad, hablando de proceso, se refiere a la anchura de


la campana de Gauss que lo caracteriza. En un estudio de capacidad (capability
study), se compara la anchura de la distribución normal obtenida (lo que llamamos
la Voz del Proceso) con los límites de tolerancias (la Voz del Cliente).
Tradicionalmente se define la capacidad de proceso como la distancia de 3 veces
sigma de cada lado de la media. Por lo tanto, corresponde a un valor igual a 6
veces la desviación estándar. En algunos casos, se quiere abarcar más anchura
de la campana por lo que se lleva a incluir hasta 6 veces la distancia sigma de
cada lado (un total de 12 sigmas).

La fórmula del índice de capacidad Cp., como indicador de calidad, es la siguiente:

(Límite superior de tolerancia – Límite inferior de tolerancia) /6 sigma

Queremos que nuestro proceso sea capaz de operar dentro de los límites de
especificaciones (requerimientos del cliente) por lo que el valor obtenido con la
formula debe ser grande (por lo menos superior a 1).
Claro está que un proceso capaz (Cp >>1) podría generar defectos en caso de
que esté descentrado. Es la razón por la cual se asocia el índice Cpk al del Cp.

La fórmula de cálculo del Cpk es la siguiente:


1. Se calcula un indicador del lado superior: (límite superior – media) /3 sigma
2. Se calcula un indicador del lado inferior: (media – límite inferior) /3 sigma
3. Se elige, como índice Cpk, el valor mínimo de estos dos indicadores
calculados siendo este el caso más desfavorable (el caso en el cual la campana
se acerca más del límite con el riesgo de provocar defectos)

Entendemos por las propias fórmulas que un proceso perfectamente centrado


tendrá: Cp=Cpk.

Tenemos que tener en cuenta también que todas estas fórmulas funcionan en
caso de tener unos datos que se ajustan a una distribución normal.

JUAN CARLOS CRUZ.

CURTOSIS: La curtosis de una variable estadística/aleatoria es una


característica de forma de su distribución de frecuencias/probabilidad. Una mayor
curtosis implica una mayor concentración de valores de la variable muy cerca de la
media de la distribución (pico) y muy lejos de la misma (colas), al tiempo que
existe una relativamente menor frecuencia de valores intermedios (hombros). Esto
explica una forma de la distribución de frecuencias/probabilidad con colas más
gruesas, con un centro más apuntado y una menor proporción de valores
intermedios entre pico y colas.
CUANTILES: Los cuantiles son puntos tomados a intervalos regulares de la
función de distribución de una variable aleatoria. El cuantil de orden p de una
distribución (con 0 < p < 1) es el valor de la variable XP que marca un corte de
modo que una proporción p de valores de la población es menor o igual que XP.
Los cuantiles suelen usarse por grupos que dividen la distribución en partes
iguales; entendidas estas como intervalos que comprenden la misma proporción
de valores. Los más usados son:

 Los cuartiles, que dividen a la distribución en cuatro partes (corresponden a los


cuantiles 0,25; 0,50 y 0,75);
 Los quintiles, que dividen a la distribución en cinco partes (corresponden a los
cuantiles 0,20; 0,40; 0,60 y 0,80);
 Los deciles, que dividen a la distribución en diez partes;
 Los percentiles, que dividen a la distribución en cien partes.

CUARTILES: Los cuartiles son los tres valores de la variable que dividen a
un conjunto de datos ordenados en cuatro partes iguales.

Q1, Q2 y Q3 determinan los valores correspondientes al 25%, al 50% y al 75% de


los datos.

Q2 coincide con la mediana.

DAVID VÁZQUEZ MARTÍNEZ


CUSUM: Se debe a que es una carta en la cual se grafica la suma acumulada de
las desviaciones con respecto a la media global (si el proceso está centrado, se
podrían considerar las desviaciones con respecto al valor nominal de la
característica de interés). Sean X – 1, X – 2, X – 3..., X – m las medias observadas
en m subgrupos y sea μˆ la media global estimada. Entonces, en los primeros
puntos de inspección sobre la carta CUSUM se grafican las sumas acumuladas
Mientras el proceso se mantenga en control estadístico centrado sobre μˆ, los
valores de estas sumas acumuladas oscilarán alrededor de cero, Esto hace que, si
el proceso se va modificando poco a poco o cambia a una nueva media, las
sumas acumuladas sean bastante sensibles para detectar el cambio rápidamente,
en particular si éste tiene una magnitud de alrededor de 1 o x.
La CUSUM de dos lados, que se interpreta con un dispositivo especial llamado
“máscara” y la CUSUM tabular o de un sólo lado, en la cual se consideran de
manera separada las sumas acumuladas por arriba y las sumas acumuladas por
abajo.
La CUSUM tabular es la más recomendada en la práctica, ya que se evita el
engorroso diseño de la máscara; sin embargo, ambos procedimientos tienen el
mismo desempeño y menor dificultad si se utiliza un software apropiado
CUSUM: se grafican las sumas Si definidas antes, y para detectar cambios se usa
una especie de cono en forma de la letra V, al cual se le denomina máscara y se

coloca de manera horizontal sobre los puntos graficados.


CONTROL ESTADÍSTICO DE LA CALIDAD (C.E.C.)
la aplicación de diferentes técnicas estadísticas a procesos industriales (mano de
obra, materias primas medidas, máquinas y medio ambiente), procesos
administrativos y/o servicios con objeto de verificar si todas y cada una de las
partes del proceso y servicio cumplen con unas ciertas exigencias de calidad y
ayudar a cumplirlas, entendiendo por calidad “la aptitud del producto y/o servicio
para su uso.
En todo proceso industrial cabe distinguir la calidad de diseño que no es objetivo
de la asignatura y la calidad de fabricación, sobre la que nos centraremos
especialmente, aplicando los métodos estadísticos.
El objetivo del Control Estadístico de la Calidad es:
1. Detectar rápidamente la ocurrencia de variabilidad debida a causas asignables
2. Investigar la(s) causa(s) que la han producido y eliminarla(s).
3. Informar de ella para la toma de decisión oportuna, pues de lo contrario se
producirían gran cantidad de unidades de calidad no aceptable, originando una
disminución de la capacidad productiva e incremento de costos del producto
terminado (supervisor).
4. Eliminar, si es posible, o al menos reducir al máximo la variabilidad del proceso
(dirección).
La aplicación de técnicas estadísticas al control está basada en el estudio y
evaluación de la variabilidad existente en cualquier tipo de proceso que es
principalmente el objeto de la Estadística.
Las fuentes que producen la variabilidad objeto de estudio en la Estadística, se
clasifican en “variabilidad controlada” o “corregible” que no entra dentro de nuestro
campo, pero si es posible detectarla por causar una variabilidad muy grande
(ajuste incorrecto de la máquina, errores humanos, siendo posible eliminar la
causa o causas que la han producido, y la “variabilidad debida al azar”, también
denominada “variabilidad no controlable
CONTROL ESTADÍSTICO DE PROCESO (CEP)
es la rama de calidad que consiste en la colecta, análisis e interpretación de datos,
establecimiento de calidades, comparación de desempeños, verificación de
desvíos, todo eso para su utilización en las actividades de mejoría y control de
calidad de productos, servicios y diagnóstico de defectos, la utilización del CEP
genera costos menores y eso disminuye principalmente en función de dos
razones: la inspección por muestreo y la reducción de rechazo.
El CEP permite que las acciones correctivas sean aplicadas antes del surgimiento
de inconformidades, responde a la pregunta si el proceso está funcionando como
debía o si está fuera de las especificaciones de calidad y ejecuta acciones
apropiadas para lograr y mantener un estado de control estadístico.
permite conocer el comportamiento del proceso y hacer previsiones sobre su
desempeño, ese comportamiento es analizado a través de medidas a él asociadas
teniendo en cuenta los conceptos de estabilidad y capacidad.
Es muy común en fábricas donde los procesos industriales no son optimizados en
el sentido de ser caracterizados por altos niveles de eficiencia, sin embargo,
dentro del CEP existen herramientas para monitorizar el proceso y, por tanto,
mejorarlo,
El control estadístico de procesos (CEP) es una técnica estadística ampliamente
usada para asegurar que los procesos incrementen su calidad. Todos los
procesos están sujetos a un cierto grado de variabilidad.
La variabilidad es definida como un fenómeno común en los temas provenientes
de un proceso industrial. Ocurre tanto en indicadores de desempeño de
operaciones del proceso, como en su rendimiento, en los indicadores de calidad
de los productos producidos, estando el proceso bajo control.
El CEP es bastante utilizado para el control de las variabilidades del proceso,
teniendo como principal objetivo lograr que el proceso quede bajo control. Esto se
logra mediante la identificación y eliminación de cualquier causa de variación no
asociada con el proceso.
JULIO CESAR MOSQUEDA

EL OBJETIVO DE LA CARTA C. es analizar la variabilidad del número de


defectos por subgrupo, cuando el tamaño de este se mantiene constante. En esta
carta se grafica 𝐶𝑖 que es igual que el número de defectos o eventos en el
𝑖 − 𝑒𝑠𝑖𝑚𝑜 subgrupo (muestra). Los límites de control se obtienen suponiendo que
el estadístico C i sigue una distribución de Poisson; por lo tanto; las estimaciones
de la media y la desviación estándar de es este estadístico están dadas por:

𝑡𝑜𝑙𝑡𝑎𝑙 𝑑𝑒 𝑑𝑒𝑓𝑒𝑐𝑡𝑜𝑠
𝜇𝐶𝑖 = 𝐶 𝑌 𝜎𝑐𝑖 = 𝑐
𝑡𝑜𝑡𝑎𝑙 𝑑𝑒 𝑠𝑢𝑏𝑔𝑟𝑢𝑝𝑜𝑠

Por ellos los límites de control de la carta C se obtiene con las expresiones

LCS =𝐶 + 3√𝑐
Línea central = C

LCI = C - 3√𝐶

INTERPRETACION DE LOS LIMITES DE CONTROL DE LA CARTA C


Los límites de una carta c reflejan la variación esperada para el número de
defectos por subgrupo. Estos límites no se representan donde se quiere que estén
los datos más bien representan la realidad. Como las cantidades de defecto son
relativamente altas, se requiere de un plan de acción que reduzca esta
problemática y una manera natural de empezar seria estratificar el problema, es
decir, localizar el tipo de defecto con mayor frecuencia y el área donde se
presenta. En otras palabras, la acción de mejora no debe partir de reaccionar ante
lo que se observa en una mesa, ya que no hay problemas especiales. Toda la
problemática es común a todas las mesas; por lo tanto, la acción parte de analizar
todo el proceso enfocándose en aquellos problemas con mayor recurrencia.
La carta de control para los defectos en las mesas muestra un proceso estable (en
control estadístico), pero quizá se considere que genera muchos defectos; 6.4 en
promedio por mesa. Si fuera el caso, tendría un proceso estable pero malo, o en
otras palabras, un proceso estable e incapaz. Una ventaja que ofrece la carta es
que no solo ayudara a detectar y prevenir situación anormal en la producción de
mesas, sino que además provoca en la administración una mayor conciencia de la
magnitud e importancia del problema, además de que permite evaluar el impacto
de las acciones de mejora.
BENJAMÍN ULLOA.

CARTA DE ATRIBUTOS
Ya conocemos las características del trabajo con atributos, por lo que no es
necesario hacer ningún nuevo comentario. Recomendamos al alumno repase los
conceptos de defectivo, etc., vistos en la sección dedicada al muestreo.
Estas cartas son útiles en primer lugar porque son sencillas. Mucha información
que maneja la gerencia está directamente relacionada con atributos y la
presentación de su evaluación en forma de cartas resulta en un mejor
entendimiento y aprovechamiento de la información. Además, el análisis de
atributos globales importantes para la empresa puede indicar dónde hay que hacer
un análisis más a fondo y emplear otras cartas.
En resumen, en estas cartas se muestra la evolución de la proporción p de
unidades que tienen cierto atributo como pueden ser la proporción de envases de
vidrio que presentaron desperfectos, el numero defectos por cada unidad
producida, la proporción de clientes que presentaron una inconformidad con los
productos, etc.
En el fundamento estadístico de estas cartas están las distribuciones para
variables discretas de Bernoulli, Poisson y la binomial. Es recomendable repasar
lo visto sobre ellas en la asignatura de Matemáticas III (Probabilidad y Estadística).

CARTA DE INDIVIDUALES:
CARTA DE INDIVIDUALES Y RANGOS MÓVILES Es un diagrama para variables
de tipo continuo, pero en lugar de aplicarse a procesos masivos como en el caso
de la carta X-R, se emplea en procesos lentos, en los cuales para obtener una
medición o una muestra de la producción se requieren periodos relativamente
largos tales como:  Procesos químicos que trabajan por lotes  Industria de
bebidas alcohólicas, en los que se debe esperar cierto tiempo t para obtener
resultados de los procesos de fermentación y destilación.  Procesos en los que
las mediciones cercanas sólo difieren por el error de medición. Por ejemplo,
temperaturas en procesos, humedad relativa en el medio ambiente, etc.  Algunas
variables administrativas cuyas mediciones se obtienen cada día, cada semana o
más (mediciones de productividad, de desperdicio, de consumo de agua,
electricidad, combustibles)  Para la Carta de Individuales.
CARTA DE PRECONTROL:
Es una técnica usada para detectar irregularidades en el proceso, que pueden
resultar en la producción de unidades fuera de especificaciones.
Pre-control, principalmente se presta para el uso de aparatos
de medición hechos previamente sobre los límites de las
especificaciones. El uso de estos aparatos de medición permite
seleccionar fácilmente l a s u n i d a d e s q u e p r o c e d e n d e l a s q u e n o .
P r e - c o n t r o l e s u s a d o c o n f r e c u e n c i a p a r a determinar los valores de las
variables del proceso durante el período de arranque de la producción. Pre-control
se basa en la hipótesis de que, si el proceso está operando correctamente,
la probabilidad de encontrar dos unidades fuera de los límites de control
consecutivamente es demasiado pequeña. Por lo tanto, si dos unidades son
encontradas consecutivamente fuera de los límites de control, es razón
suficiente como para indicar una falla en el proceso. Ventajas. Pre-control
es una técnica simple que a diferencia con el control estadístico del
proceso (CEP) no requiere de gráficas de control, ni de cómputos. Desventajas.
No existen gráficas de control, por lo tanto, las reglas y
procedimientos p a r a r e c o n o c e r p a t r o n e s d e f a l l a s n o p u e d e n s e r
usados. Dado que s e r e q u i e r e u n a cantidad muy pequeña de
muestras, es riesgoso inferir sobre la totalidad del proceso. Finalmente,
Pre-control no proporciona información suficiente para someter el proceso bajo
control o para reducir la variabilidad. Recomendaciones. Pre-control sólo
debe ser usado cuando la capacidad del proceso (Cp)1
es mayor que uno (algunos textos recomiendan como mínimo Cp.=2)
2, y cuando sehan alcanzado cero defectos en el proceso. Definición de los límites
de Pre-control. Existen dos límites de Pre-control (PC):
Upper Pre-control limit (UPCL)y Lower Pre-control limit (LPCL). Cada uno
representa ¼ de
la distancia entre el límite de especificaciones inferi
o r ( L S L ) y e l l í m i t e d e especificaciones superior (USL). La siguiente
figura considera un proceso distribuido deacuerdo a la distribución normal
JORGE LEON

CARTA MULTIVARI

Es un gráfico que muestra la variación dentro de las unidades, entre las unidades,
entre las muestras y entre los lotes. Es útil en la detección de las fuentes de
variación dentro de un proceso. son una forma visual de presentar la variabilidad a
través de una serie de gráficos. El contenido y formato de las listas ha
evolucionado con el tiempo. Multivariables clínicas fueron descritas por primera
vez por Leonard Ceder en 1950, aunque se han desarrollado de forma
independiente por múltiples fuentes. Se inspiraron en el mercado de valores
gráficos de vela o las cartas abiertas de altura-mínimo-cierre.

Como se concibió originalmente, el gráfico de múltiples variables se asemeja a


una tabla de control de Shewhart individuos con las siguientes diferencias:

* La característica de calidad de interés se mide en dos extremos (en torno a su


diámetro, a lo largo de su longitud, o en su superficie) y estas mediciones se
trazan como líneas verticales que conectan los valores mínimo y máximo en el
tiempo.

* La característica de calidad de interés se representa a través de tres paneles


horizontales que representan:
* La variabilidad en una sola pieza

* Pieza a pieza, la variabilidad

* Tiempo en cuando la variabilidad

* La característica de calidad de interés se representa frente a las especificaciones


superiores e inferiores en lugar de los límites de control.

CARTA X-R
se utilizan cuando la característica de calidad que se desea controlar es una
variable continua. Para entender los gráficos X-R, es necesario conocer
el concepto de Subgrupos (o Subgrupos racionales). Trabajar con subgrupos
significa agrupar las mediciones que se obtienen de un proceso, de acuerdo a
algún criterio. Los subgrupos se realizan agrupando las mediciones de tal modo
que haya la máxima variabilidad entre subgrupos y la mínima variabilidad dentro
de cada subgrupo.

Por ejemplo, si hay cuatro turnos de trabajo en un día, las mediciones de cada
turno podrían constituir un subgrupo.
Supongamos una fábrica que produce piezas cilíndricas para
la industria automotriz. La característica de calidad que se desea controlar es el
diámetro de las piezas.

Hay dos maneras de obtener los subgrupos. Una de ellas es retirar varias piezas
juntas a intervalos regulare

La otra forma es retirar piezas individuales a lo largo del intervalo


de tiempo correspondiente al subgrupo

son gráficos realizados para el seguimiento estadístico del control de calidad de


piezas en múltiples sectores, incluyendo el de la automoción. Permiten detectar la
variabilidad, consistencia, control y mejora de un proceso productivo. En el caso
de nuestro sector, se compone de los elementos siguientes:
 Límite de control superior, o tolerancia máxima
 Límite de control inferior, o tolerancia mínima
 Valor nominal, o promedio de las tolerancias mínimas y máximas
 Variables de medición, que suelen ser puntos de medición por reloj comparador, o
puntos de medición por máquina tridimensional Los gráficos X-R son utilizados
para el análisis estadístico en cualquier sector que requiera la medición y el
análisis de datos variables. La fiabilidad de los datos de estos gráficos y su
posterior análisis depende en gran parte de la forma de adquirir estos datos, un
aspecto que detectamos hace ya tiempo en Tecnomatrix, y que nos llevó a
desarrollar la gama de sistemas de adquisición de datos

CARTA X-S
Es un diagrama para variables que se aplican a procesos masivos en los que se
requiere tener una mayor potencia para detectar pequeños cambios. Esta grafica
es el instrumento estadístico que sirve para estudiar el comportamiento de un
proceso de manufactura, considerando como indicar la desviación estándar
Trabajar con subgrupos significa agrupar las mediciones que se obtienen de un
proceso, de acuerdo con algún criterio. Los subgrupos se realizan agrupando las
mediciones de tal modo que haya la máxima variabilidad entre subgrupos y la
mínima variabilidad dentro de cada subgrupo. Las cartas X s son preferibles a sus
contrapartes, las x R cuando:

Para obtener la gráfica de medias y desviaciones estándar es necesario que la


característica del producto se haya definido con tipo de análisis Variable y tamaño
de subgrupo igual o mayor a 2. Cada punto de la gráfica de Medias es el promedio
de las muestras de un subgrupo. Cada punto de la gráfica de Desviaciones es la
desviación estándar interna de cada subgrupo. Los límites de control se calculan a
partir de la Desviación estándar promedio y delimitan una zona de 3 desviaciones
estándar de cada lado de la media.

ELVA GRACIELA GONZALES ANAYA

DATO RARO O ATIPICO: Es una pequeña cantidad de mediciones muy


extremas o atípicas son identificadas con facilidad mediante un histograma, debido
a que aparece una o mas barras pequeñas bastante separadas a las aisladas de
las demás.
Desviación estándar o Típica
Esta medida nos permite determinar el promedio aritmético de fluctuación de los
datos respecto a su punto central o media. La desviación estándar nos da como
resultado un valor numérico que representa el promedio de diferencia que hay
entre los datos y la media. Para calcular la desviación estándar basta con hallar la
raíz cuadrada de la varianza, por lo tanto, su ecuación sería:

DESVIACIÒN ESTANDAR DEL PROCESO:

La desviación estándar (o desviación típica) es una medida de dispersión para


variables de razón (ratio o cociente) y de intervalo, de gran utilidad en la
estadística. Es una medida (cuadrática) de lo que se apartan los datos de su
media, y por tanto, se mide en las mismas unidades que la variable.
Para conocer con detalle un conjunto de datos, no basta con conocer las medidas
de tendencia central, sino que necesitamos conocer también la desviación que
representan los datos en su distribución, con objeto de tener una visión de los
mismos más acorde con la realidad a la hora de describirlos e interpretarlos para
la toma de decisiones.
DESVIACIÒN ESTANDAR MUESTRAL: La fórmula para la desviación
estándar muestral es: donde n es el tamaño de la muestra y x-bar es la media
aritmética de la muestra. La fórmula para la desviación estándar poblacionales:
donde N es el tamaño de la población y μ es la media aritmética de la población.

BEATRIZ ADRIANA SANCHEZ MORALES

DIAGRAMA DE CAJA: El gráfico de caja (“box-plot” en inglés) es una forma de


presentación estadística destinada, fundamentalmente, a resaltar aspectos de la
distribución de las observaciones en una o más series de datos cuantitativos.
Este gráfico utiliza una sola escala: la correspondiente a la variable de los datos
que se presentan. Es decir, no utiliza escala de frecuencias.
La caja: Es un rectángulo que abarca el recorrido (o rango, o intervalo)
intercuartílico (RIC) de la distribución; o sea, el tramo de la escala que va desde el
primer cuartil (C1) al tercer cuartil (C3). Esto incluye el 50 % de las observaciones
centrales.
Prof. Alberto C. Palladino pag.1 año (2011).recuperado
https://med.unne.edu.ar/sitio/multimedia/imagenes/ckfinder/files/files/aps/GR%C3
%81FICO%20DE%20CAJA.pdf

DMAIC: (Definir, Medir, Analizar, Mejorar y Controlar) es la metodología de


mejora de procesos usado por Seis Sigma, y es un método iterativo que sigue un
formato estructurado y disciplinado basado en el planteamiento de una hipótesis,
la realización de experimentos y su subsecuente evaluación para confirmar o
rechazar la hipótesis previamente planteada (McCarty et al., 2004).
Definir: Es la fase inicial de la metodología, en donde se identifican posibles
proyectos de mejora dentro de una compañía y en conjunto con la dirección de la
empresa se seleccionan aquellos que se juzgan más prometedores. De acuerdo a
Bersbach (2009).
Medir: Una vez definido el problema a atacar, se debe de establecer que
características determinan el comportamiento del proceso (Brue, 2002).
Analizar: Esta etapa tiene como objetivo analizar los datos obtenidos del estado
actual del proceso y determinar las causas de este estado y las oportunidades de
mejora.
Mejorar: Una vez que se ha determinado que el problema es real y no un evento
aleatorio, se deben identificar posibles soluciones

DPMO: es el número real de defectos observados, extrapolado a cada 1,000,000


de oportunidades, esto es, una "pieza" puede tener múltiples "oportunidades" de
ser defectuosa. Las oportunidades deben ser criterios de valor para el cliente.
Recuperado(25/09/2018 ).file:///C:/Users/Administrador/Downloads/DPMO%20DPMU.pdf

DFC: significa el Despliegue de la Función de Calidad o por su nombre en inglés “Quality


Function Deployment, QFD”,.
https://www.gestiopolis.com/despliegue-de-la-funcion-de-calidad-dfc-o-la-casa-de-la-
calidad/
MARIA DEL ROSARO MOSQUEDA PEREZ

ESTADÍSTICA
La Estadística es la ciencia cuyo objetivo es reunir una información cuantitativa
concerniente a individuos, grupos, series de hechos, etc. y deducir de ello gracias
al análisis de estos datos unos significados precisos o unas previsiones para el
futuro. La estadística, en general, es la ciencia que trata de la recopilación,
organización presentación, análisis e interpretación de datos numéricos con el fin
de realizar una toma de decisión más efectiva.
Los métodos estadísticos tradicionalmente se utilizan para propósitos descriptivos,
para organizar y resumir datos numéricos. La estadística descriptiva, por ejemplo,
trata de la tabulación de datos, su presentación en forma gráfica o ilustrativa y el
cálculo de medidas descriptivas.

ESTADÍSTICOS
Los métodos estadísticos tradicionalmente se utilizan para propósitos descriptivos,
para organizar y resumir datos numéricos. La estadística descriptiva, por ejemplo,
trata de la tabulación de datos, su presentación en forma gráfica o ilustrativa y el
cálculo de medidas descriptivas.
Los tipos de estadísticos: Posición, centralización, dispersión, Forma.

EFICACIA

Consiste en alcanzar las metas establecidas en la empresa.

EFICIENCIA
Se refiere a lograr las metas con la menor cantidad de recursos. Obsérvese que el
punto clave en esta definición es ahorro o reducción de recursos al mínimo.

EWMA Exponential Weighted Moving Average), como método de estimación de


la volatilidad.

Este método busca suavizar el impacto de las grandes oscilaciones en la


volatilidad observadas en el mercado (lo que técnicamente se conoce
como outliers) y que, como vimos al hablar de las medias móviles, pueden afectar
bastante a los cálculos en tanto en cuanto se tengan en cuenta para los mismos.
El método EWMA asume que las mejor predicción de la volatilidad para el
período t es una media ponderada entre la observación del período anterior y la
predicción de la volatilidad para ese mismo período anterior. Nótese que en esta
entrada estamos asimilando volatilidad con varianza y no con desviación típica.
Asumiendo que la volatilidad de un activo o cartera puede ser medida con el
cuadrado de su rendimiento (de nuevo hemos de referirnos al anterior post de esta
serie) y llamando λ (cuyo valor debe situarse entre 0 y 1) al peso asignado a la
anterior estimación de la volatilidad, tenemos que:

Tenemos que darnos cuenta de que la ventaja más importante del


método EWMA reside precisamente en su recursividad. Gracias a la misma, la
estimación de la volatilidad para el período t reúne toda la información histórica de
la volatilidad. En efecto, en las expresiones anteriores vemos que la predicción de
la volatilidad (de su cuadrado) para el momento t es una función del parámetro λ y
de la volatilidad observada en el pasado medida mediante el cuadrado del
rendimiento (o el cuadrado de la diferencia entre el rendimiento y su media si es
que ésta es distinta de cero).

JUANA GUADALUPE CHIMAL

DISTRIBUCIÓN SESGADA
Una distribución asimétrica. En una distribución sesgada negativamente, las
puntuaciones extremas son inferiores a la media. En una distribución sesgada
positivamente, las puntuaciones extremas son superiores a la media.

DISTRIBUCIÓN MULTIMODAL
Es una distribución con más de una moda. El histograma de una distribución
multimodal tiene más de una cima. (cf. Discusión sobre Promedio, mediana y
moda).

ESTRATIFICACIÓN
El término estratificación hace referencia a la noción de estratos o niveles para
diferentes órdenes y circunstancias de la vida. En general, la palabra
estratificación se puede utilizar tanto en las ciencias naturales (cuando se habla de
la estratificación de la Tierra o de la atmósfera) como en las ciencias sociales
(cuando se hace referencia a la estratificación socia

HISTOGRAMA.
El histograma es aquella representación gráfica de estadísticas de diferentes tipos.
La utilidad del histograma tiene que ver con la posibilidad de establecer de manera
visual, ordenada y fácilmente comprensible todos los datos numéricos estadísticos
que pueden tornarse difíciles de entender. Hay muchos tipos de histogramas y
cada uno se ajusta a diferentes necesidades como también a diferentes tipos de
información. Los histogramas son utilizados siempre por la ciencia estadística. Su
función es exponer gráficamente números, variables y cifras de modo que los
resultados se visualicen más clara y ordenadamente.
EMANUEL CAMACHO FRANCO

HABILIDAD DE UN PROCESO: es el grado de aptitud que tiene un proceso


al cumplir con las especificaciones técnicas deseadas. Cuando la capacidad es
alta, se dice que el proceso es capaz, cuando se mantiene estable a lo largo del
tiempo, se dice que el proceso está bajo control, cuando no ocurre esto se dice
que el proceso no es adecuado para el trabajo.
Bryan Salazar López. (206). Capacidad de Proceso. 2016, de Herramientas para
el ingeniero industrial Sitio web:
https://www.ingenieriaindustrialonline.com/herramientas-para-el-ingeniero-
industrial/gestión-y-control-de-calidad/capacidad-de-proceso/
INGENIERIA DE CALIDAD: El propósito es combinar métodos de ingeniería
y estadística para mejorar un rendimiento rápido de costo y calidad, utilizando
diseño de productos y procesos de manufactura para optimizar los mismos. Lleva
a cabo actividades dirigidas a reducir las pérdidas causadas por la variabilidad.
Prezi Inc. (2018). Ingeniería de la calidad. 2018, de Prezi.com Sitio web:
https://prezi.com/yhs1d7zmdsit/ingenieria-de-la-calidad/

INDICE K: valor que caracteriza la relación existente entre la media del proceso
y su distancia al límite de especificación, por el cual el proceso dará un resultado
menos correcto. Es el índice utilizado para saber si el proceso se ajusta a las
tolerancias, es decir, si la media del proceso se encuentra centrada o no con
relación al valor nominal del mismo.

Mesuré control. (2018). ¿Qué es Cpk? 2018, de Control de calidad Sitio web:
http://www.measurecontrol.com/que-es-cpk/

ELIZABETH GRANADOS

EL CP COMPARA LA TOLERANCIA ESPECIFICADA CON LA


VARIACIÓN POTENCIAL DEL PROCESO:

El Cp describe la relación entre el espacio disponible para variación de acuerdo


con las especificaciones y el espacio ocupado por la variación del proceso.

Para caracterizar la ubicación del proceso utilizamos el Cpk, que evalúa la


distancia del promedio del proceso con la especificación más cerca de ella, de la
siguiente forma:

≥ TERESA ESPITIA
INDICE DE CAPACIDAD POTENCIAL C
La mayoría de las evaluaciones de capacidad pueden agruparse en una de dos
categorías: capacidad potencial (corto plazo) y capacidad general. Cada una
representa una medida única de la capacidad del proceso.

Capacidad potencial

La capacidad potencial también se conoce como la "acreditación" del proceso:


ignora las diferencias entre los subgrupos y representa cómo podría funcionar el
proceso si se eliminaran los cambios rápidos y graduales entre los subgrupos. Los
índices de capacidad que evalúan la capacidad potencial incluyen Cp, CPU, CPL y
Cpk.

Cp.: El Cp, es una medida de la capacidad potencial del proceso. El Cp es una


relación que compara dos valores: La dispersión de especificación (LES – LEI)

La dispersión del proceso (la variación de 6 σ) con base en la desviación estándar


dentro de los subgrupos El Cp evalúa la capacidad potencial con base en la
variación del proceso, no en su ubicación.

Interpretación: Utilice el Cp para evaluar la capacidad potencial del proceso con


base en la dispersión del proceso. La capacidad potencial indica la capacidad que
se podría alcanzar si se eliminaran los cambios rápidos y graduales del proceso.

Puesto que el Cp no considera la ubicación del proceso, indica la capacidad


potencial que podría alcanzar el proceso si estuviera centrado. Por lo general, los
valores de Cp más altos indican un proceso más capaz. Los valores de Cp más
bajos indican que el proceso puede necesitar mejoras.

CPL: El CPL es una medida de la capacidad potencial del proceso con base en su
límite de especificación inferior. El CPL es una relación que compara dos valores:

La distancia de la media del proceso al límite de especificación inferior (LEI)


La dispersión unilateral del proceso (la variación de 3 σ) con base en la desviación
estándar dentro de los subgrupos Puesto que el CPL considera tanto la media
como la dispersión del proceso, evalúa la ubicación y la variación (dentro de los
subgrupos) del proceso.

Interpretación: Utilice el CPL para evaluar la capacidad potencial del proceso en


relación con su límite de especificación inferior. La capacidad potencial indica la
capacidad que se podría alcanzar si se eliminaran los cambios rápidos y graduales
del proceso.

Por lo general, los valores de CPL más altos indican que el proceso es capaz en la
cola inferior de su distribución. Los valores de CPL más bajos indican que el
proceso puede necesitar mejoras.

CPU: El CPU es una medida de la capacidad potencial del proceso con base en
su límite de especificación superior. El CPU es una relación que compara dos
valores:

La distancia de la media del proceso al límite de especificación superior (LES)

La dispersión unilateral del proceso (la variación de 3 σ) con base en la variación


dentro de los subgrupos Puesto que el CPU considera tanto la media como la
dispersión del proceso, evalúa la ubicación y la variación (dentro de los
subgrupos) del proceso.

Interpretación

Utilice el CPU para evaluar la capacidad potencial del proceso en relación con su
límite de especificación superior. La capacidad potencial indica la capacidad que
se podría alcanzar si se eliminaran los cambios rápidos y graduales del proceso.

Por lo general, los valores de CPU más altos indican que el proceso es capaz en
la cola superior de su distribución. Los valores de CPU más bajos indican que el
proceso puede necesitar mejoras.
Cpk: El Cpk es una medida de la capacidad potencial del proceso y es igual al
mínimo entre el CPU y el CPL. El Cpk es una relación que compara dos valores:
La distancia de la media del proceso al límite de especificación más cercano (LES
o LEI) La dispersión unilateral del proceso (la variación de 3 σ) con base en la
desviación estándar dentro de los subgrupos El Cpk evalúa tanto la ubicación
como la variación (dentro de los subgrupos) del proceso.

Interpretación: Utilice el Cpk para evaluar la capacidad potencial del proceso con
base tanto en la ubicación como en la dispersión del proceso. La capacidad
potencial indica la capacidad que se podría alcanzar si se eliminaran los cambios
rápidos y graduales del proceso.

Por lo general, los valores de Cpk más altos indican un proceso más capaz. Los
valores de Cpk más bajos indican que el proceso puede necesitar mejoras.

BLIOGRAFIAS

https://support.minitab.com/es-mx/.../18/.../potential-and-overall-capability/

https://www.google.com.mx/search?q=INDICE+DE+CAPACIDAD+POTENCIAL&rl
z=1C1CHBD_esMX803MX804&oq=INDICE+DE+CAPACIDAD+POTENCIAL&aqs
=chrome..69i57j0l3.33502j1j8&sourceid=chrome&ie=UTF-8#

DC Montgomery. Tercera edición. Limusa Wiley. 2008. Control estadístico de la


calidad. Tema 3: “Inferencias sobre la calidad del proceso”. Tema 4: “Métodos y
filosofía del control estadístico de procesos”. Tema 5: “Cartas de control para
variables”. Tema 7: “Análisis de capacidad del proceso y de sistemas de
medición”. ISBN 9780471656319.

ANA LILIA
ÍNDICE CPS
Indicador de la capacidad de un proceso para cumplir con la especificación
superior de una característica de calidad.
Se expresa:

ÍNDICE CP
Índice de capacidad de un proceso: Compara el ancho de las especificaciones o
variación tolerada para el proceso con la amplitud de la variación real del proceso.
Se expresa:

ÍNDICE CPK
El Cpk es un índice de culpabilidad. Se utiliza para comprobar la calidad de un
proceso, admitiendo algunos límites en las especificaciones, y siempre
conjuntamente con el Cp.
Se expresa:

CESAR ARIAS MUÑIZ


LA MEDIANA: Es el valor del elemento intermedio cuando todos los elementos
se ordenan.

LA MEDIA: Es la suma de los valores de los elementos dividida por la cantidad


de éstos. Es conocida también como promedio, o media aritmética.

LA MODA: Es el valor que se presenta el mayor número de veces.

MEDIDA DE TENDENCIA CENTRAL: Un único valor que resume un


conjunto de datos. Señala el centro de valores. No hay una sola medida de
tendencia central, se consideran 5: la media aritmética, media ponderada, la
mediana, la moda y la media geométrica.

MEDIDAS DE DISPERSIÓN O VARIABILIDAD: Nos indican si esas


puntuaciones o valores están próximas entre sí o sí por el contrario están muy
dispersas.

ARTURO RODRIGUEZ

MULTI-VARI
El análisis Multi-Vari permite determinar las fuentes que presentan mayor
variación, a través de la descomposición de los componentes de variabilidad del
proceso. Las cartas Multi-Vari forman parte de las herramientas desarrolladas por
Dorian Shainin1, encaminadas a la mejora del proceso.
El objetivo general de las cartas Multi-Vari es, descubrir los componentes de
variación en el proceso y cuantificar las diferentes fuentes de variabilidad, las
cuáles pueden ser, por ejemplo: de lote a lote, dentro del lote, de turno a turno,
entre turnos, dentro del turno, de máquina a máquina, dentro de la máquina, de
operador a operador, dentro del operador, entre operadores, etc.
Las cartas Multi-Vari identifican tres principales familias de variación que pueden
influenciar en la variabilidad del proceso, éstas son variación posicional, cíclica y
temporal.
Variación posicional. Se refiere a variaciones dentro de una misma pieza,
variaciones producidas de un troquel a otro, dentro de un lote de piezas, de una
máquina a otra, de un operador a otro, o de una plata a otra.
Variación cíclica. Es la variación entre unidades de un mismo proceso, o variación
entre grupos de unidades (lotes)
Variación temporal. Variación de diferencia de tiempo (por ejemplo: de hora a
hora, de día a día, de semana a semana, etc.), variación de una corrida de
producción a otra, o variación de turno a turno.

Una vez identificados las fuentes de variación, el análisis Multi-Vari está diseñado
y enfocado a identificar la variable independiente de mayor influencia dentro de las
familias de variación descritas anteriormente.

Pasos para elaborar una carta Multi-Vari.

 Selección del proceso. Cualquier proceso que se presente fuera de las


especificaciones permitidas es candidato a ser seleccionado para
posteriormente ser analizado por medio de cartas Multi-Vari.

 Plan de muestreo y toma de mediciones. El objetivo es tomar mediciones


que otorguen información con respecto a las principales familias de variación
que pueden influenciar en la variabilidad del proceso. Es decir, para el caso de
variación posicional, tomar mediciones en una máquina y en otra, estas
mediciones deben ser tomadas de manera que resulten en un muestreo
aleatorio. El muestreo aleatorio puede ser llevado a cabo con tablas de
números aleatorios, dichas tablas contienen una serie de columnas y renglones
de números, por ejemplo, el último dígito de un número nos puede dar el
intervalo de minutos que se debe esperar para tomar la siguiente medición.
 Toma de mediciones para variación simultánea. Es recomendable también
realizar una toma de mediciones que cubra más de una familia de variabilidad,

Ejemplo de cartas Multi-Vari.


Se ha detectado que el proceso de producción de rondanas de plástico se
encuentra fuera de especificaciones. El diámetro exterior especificado es de 1.50”
+ 0.01”. Se procede a realizar un proceso de reexperimentación a través de cartas
Multi-Vari para identificar la fuente de variabilidad.
Con este fin se planifica un muestreo aleatorio de cinco diferentes lotes de
material que será procesado en dos diferentes inyectoras de plástico. Se toman
cinco muestras para cada inyectora y para cada lote. Resultando 50
observaciones.

Las mediciones ordenadas por lote e inyectora se muestran en la siguiente tabla.


Medición Medición
Lote Inyectora (pulg.) Lote Inyectora (pulg.)
A 1 1,5060 C 2 1,4981
A 1 1,4853 C 2 1,4975
A 1 1,5089 C 2 1,5196
A 1 1,4939 C 2 1,4874
A 1 1,5131 C 2 1,5158
A 2 1,4994 D 1 1,4913
A 2 1,4914 D 1 1,5003
A 2 1,4934 D 1 1,4896
A 2 1,4854 D 1 1,5086
A 2 1,5130 D 1 1,4938
B 1 1,4993 D 2 1,4843
B 1 1,5054 D 2 1,4987
B 1 1,4974 D 2 1,5087
B 1 1,5127 D 2 1,4984
B 1 1,4888 D 2 1,4905
B 2 1,5159 E 1 1,5198
B 2 1,4874 E 1 1,4976
B 2 1,5011 E 1 1,4946
B 2 1,4980 E 1 1,4882
B 2 1,4979 E 1 1,5081
C 1 1,4867 E 2 1,4929
C 1 1,4943 E 2 1,5014
C 1 1,5033 E 2 1,5047
C 1 1,4909 E 2 1,5055
C 1 1,5035 E 2 1,5030

A continuación, se muestra una tabla de información estadística.

Muestras dentro de
especificaciones 34
Muestras fuera de
especificaciones 16
(pulg.)
Media general 1,499
Desviación estándar general 0,0094
Límite inferior 1,484
Límite Superior 1,520

Media por lote (pulg.)


A 1,499
B 1,500
C 1,500
D 1,496
E 1,502

La siguiente figura muestra la carta Multi-Vari obtenida para el ejemplo. El


software estadístico usado para obtener esta carta es MiniTab. Nótese que este
software no encierra los datos en cajas.

ORIGEN DEL PENSAMIENTO ESTADÍSTICO


H. G. Wells, también llamado el hombre que veía el mañana, fue quien, con
espíritu de descubrimiento científico, parafraseó que en poco tiempo para un
ciudadano eficiente del nuevo y tan complejo mundo que se está desarrollando
ahora, sería requisito poder calcular y pensar en promedios, máximos y mínimos,
lo que hoy es como aprender a leer y escribir.
A la definición y avance del concepto de pensamiento estadístico han contribuido
varios especialistas, como Sanee quien lo definió como un conjunto de principios y
valores que permiten identificar los procesos, caracterizarlos, cuantificarlos,
controlar y reducir su variación para implantar acciones de mejora (Snee, 1993).
El pensamiento estadístico está basado en la teoría en administración del Dr. W.
Edwards Deming, porque en su libro, The New Economics publicado en 1994
desarrolló el Sistema de Conocimiento Profundo, el cual contiene la esencia de los
tres principios del pensamiento estadístico y consta de cuatro partes:

 La apreciación de un sistema.
 El conocimiento sobre la variación.
 La teoría del conocimiento.
 La psicología.

Definición General: En la Special Publication on Statistical Thinking (1996b) está


detallada la definición de que el pensamiento estadístico es una filosofía de
aprendizaje y acción basada en tres principios inevitables que son:

1. Todo trabajo ocurre en un sistema de procesos interconectados;


2. Variación hay en todos los procesos; y
3. Entender y reducir la variación son las claves del éxito.

El primer principio se relaciona con la primera parte del Sistema de Conocimiento


Profundo, Apreciación de un sistema. El segundo y tercer principios, se unen a la
segunda parte del Sistema de Conocimiento Profundo, Conocimiento sobre la
variación.
En la ASQC (1996b) se plantea primero que el pensamiento estadístico es una
filosofía, o sea es una forma de pensar, o un proceso de pensamiento, en lugar de
cálculos que a algunos confunden. Ésta es la diferencia clave entre el
pensamiento estadístico y las técnicas estadísticas, y cuya integración se ilustra
en la Figura 1.

Relación entre pensamiento estadístico y métodos estadísticos


Principios: En la práctica se dan diferentes interpretaciones a las situaciones,
quizás a través de los datos, y reaccionando diferente de tal forma que se aprecia
la no utilización del pensamiento estadístico. Para puntualizar esas diferencias, es
necesario examinar los principios fundamentales del pensamiento estadístico.

Todo trabajo ocurre en un sistema de procesos interconectados. Es decir,


toda actividad es un proceso, el cual es un conjunto de actividades conectadas
donde las entradas son transformadas en salidas para un propósito específico
(ASQC, 1996b; López, 2004).
Este principio se refiere al entendimiento de toda actividad y tiene que ver con el
aprendizaje, el mejoramiento potencial y las fuentes de variación que se
mencionan en el segundo y tercer principios.
Variación hay en todo proceso. Este principio proporciona el enfoque para el
mejoramiento del trabajo. La variación es la clave. La variación resulta cuando dos
o más cosas son diferentes y pudiéramos pensar que deberían ser exactamente
iguales. La presencia de la variación crea la necesidad del pensamiento
estadístico (Dransfield et. al. 1999). Si no hubiera variación, los procesos podrían
ejecutarse mejor, los productos tendrían la calidad deseada, el servicio podría ser
más consistente y los directivos podrían administrar mejor (Hoerl y Snee, 2002).
Enfocarse en la variación es una estrategia clave para el logro de la mejora.

Entender y reducir la variación son las claves del éxito. La calidad de los
procesos determina inevitablemente la calidad de los productos que se obtienen,
de ahí que la primera gran meta de todo proceso de mejora debe ser: controlar y
reducir la variabilidad, de forma tal que los procesos sean estables, consistentes y
predecibles.
La aplicación de la estadística inicia sobre la base de que hay variación en los
datos, de lo contrario no se aplicaría. Por lo que la variación debe cuantificarse
para comprender mejor las actividades o procesos y mejorar la toma de
decisiones.

La estadística ha demostrado que las variaciones de un producto o proceso


pueden medirse, con lo cual se puede determinar el comportamiento del proceso,
o el lote de productos, o los tiempos de atención en el servicio.
Deming manifestó el mensaje de toda la vida, reduzca la variación. En la mayoría
de las situaciones, reducir variación es calificativo de mejor. Reduciendo variación
en el producto se satisface a los clientes, mientras que reduciendo la variación del
proceso y de las entradas se reduce la de los productos, y comúnmente se
reducen costos en los negocios en general
En resumen, debiéramos siempre entender la variación y siempre tratar de
reducirla, así el pensamiento estadístico sería pro activo.
Respecto a lo anterior puede pensarse que el pensamiento estadístico es un
método que consiste en la identificación de los procesos más importantes (pueden
ser procesos clave o de apoyo) en una empresa, la determinación de variables, la
obtención de datos y finalmente el análisis de los mismos utilizando herramientas
estadísticas, desde las más simples hasta quizás otras muy complejas.

Percentil P
El término percentil forma parte integrante de la enorme cantidad de conceptos
que agrupan las matemáticas, por tanto, resulta ser de uso común y frecuente
dentro del mencionado ámbito y en el léxico de quienes se dedican al estudio y a
la enseñanza de la misma. El percentil es cada uno de los noventa y nueve
segmentos que resultan tras dividir algo en cien partes de igual frecuencia.

Se lo representa a través de la letra mayúscula P.


Cuando nos referimos a un percentil en concreto será el valor de la variable a
observar y que está por debajo del porcentaje que se ha dado. Así es que P20
será la puntuación que se le atribuirá cuando esté por debajo del 20 % de los
valores ordenados que se han hallado.

El método más sencillo para calcular el percentil es el siguiente:


x = n*i/100.
En esta fórmula la letra minúscula n representa al número de elementos de la
muestra, en tanto, la letra i minúscula será el percentil. Tras la realización de esta
operación se obtendrá un número real con una parte entera, que se denominará E
y una parte decimal que se pasará a denominar D.
Uno de los usos más frecuentes que se le da al percentil es a la hora de satisfacer
la necesidad de obtener datos concretos respecto de determinadas cuestiones
que hacen al conocimiento más profundo de una sociedad o comunidad, por
ejemplo, se quiere evaluar el crecimiento de los niños, entonces, los pediatras,
basarán su evaluación justamente en tablas de percentiles para llevar a cabo la
mencionada evaluación; se inspirarán entonces en tablas de percentiles diferentes
según se trate de mujeres o de varones, con unos valores medios, según la edad
y el país que corresponda. Las más usadas son las del peso, la altura y el
perímetro craneal.

Ejemplo de tabla percentil


En la imagen se muestra que la mitad de los niños de una misma edad se hallan
en el percentil 50, en tanto, un 25 % se halla por arriba de ese nivel y el otro 25 %
por debajo. Todas las líneas corresponderán a valores normales, si hay un niño en
el percentil 45 de altura será interpretado del siguiente modo: de cien chicos sanos
de su edad 55 son más altos que él y 45 son más bajos.

PRODUCTIVIDAD
La productividad es una medida económica que calcula cuántos bienes y servicios
se han producido por cada factor utilizado (trabajador, capital, tiempo, costes, etc.)
durante un periodo determinado. Por ejemplo, cuanto produce al mes un
trabajador o cuánto produce una maquinaria.
El objetivo de la productividad es medir la eficiencia de producción por cada factor
o recurso utilizado, entendiendo por eficiencia el hecho de obtener el mejor o
máximo rendimiento utilizando un mínimo de recursos. Es decir, cuantos menos
recursos sean necesarios para producir una misma cantidad, mayor será la
productividad y por tanto, mayor será la eficiencia.
Teniendo esto en cuenta, la fórmula para calcular la productividad es el cociente
entre producción obtenida y recursos utilizados.

Productividad = Producción obtenida / factor utilizado


Por ejemplo, para calcular la productividad de un país podemos dividir el PIB entre
el número de horas trabajadas. El resultado será cuánto se ha producido en el
país por cada hora.

Importancia del cálculo de la productividad


El aumento de productividad es tan importante porque permite mejorar la calidad
de vida de una sociedad, repercutiendo en los sueldos y la rentabilidad de los
proyectos, lo que a su vez permite aumentar la inversión y el empleo.
Para una empresa, una industria o un país, la productividad es un factor
determinante en el crecimiento económico. Cuando se estima la tendencia de
crecimiento a largo plazo de un país se descompone en dos componentes
principales: los cambios en el empleo (que dependen a su vez del crecimiento de
la población y de la tasa de empleo) y la productividad (que depende sobretodo
del gasto en bienes de capital y de los factores productivos que veremos más
abajo).
Un análisis de lo más productivo supone:

 Ahorro de costes: al permitir deshacerse de aquello que es innecesario para


la consecución de los objetivos.
 Ahorro de tiempo: debido a que permite realizar un mayor número de tareas
en menor tiempo y dedicar ese tiempo “ahorrado” a seguir creciendo a
través de otras tareas.
 Un buen análisis permite establecer la mejor combinación de maquinaria,
trabajadores y otros recursos para conseguir maximizar la producción total
de bienes y servicios.

Tipos de productividad
Según los factores que tengamos en cuenta, se puede clasificar en los siguientes
tipos:
Productividad laboral: Se relaciona la producción obtenida y la cantidad de
trabajo empleada.
Productividad total de los factores: Se relaciona la producción obtenida con la
suma de todos los factores que intervienen en la producción (trabajo, capital,
tierra).
Productividad marginal: Es la producción adicional que se consigue con la una
unidad adicional de un factor de producción, manteniendo el resto
constantes. Aquí entra en escena la ley de rendimientos decrecientes, que afirma
que en cualquier proceso productivo, añadir más unidades de un factor productivo,
manteniendo el resto constantes, dará progresivamente menores incrementos en
la producción por unidad.

Factores que afectan a la productividad


Una de las formas más comunes de aumentar la productividad es invertir en
bienes de capital (maquinaria o informática por ejemplo) para hacer el trabajo más
eficiente, manteniendo o incluso reduciendo el empleo.
Estos son los principales factores que afectan a la productividad de una empresa:

Calidad y disposición de recursos naturales; tierra (T): si una empresa o país


tiene o se encuentra cerca de recursos naturales será más productiva. Tanto por
el valor de esos recursos, por no tener que comprarlos ni transportarlos desde
lejos. Este factor de producción se englobaba como factor tierra (T).
El capital invertido en la industria (K): la cantidad de capital es un factor directo
de la productividad.
La cantidad y calidad de los recursos humanos; labor o trabajo (L): el número
de empleados de la industria, su nivel de educación y experiencia.
El nivel tecnológico (A): cuanto mayor sea el conocimiento y nivel tecnológico
mayor será la productividad. Tecnología no solo son productos mecánicos, sino
procesos productivos.
La configuración de la industria: el tipo de industria afectará enormemente a la
productividad de una empresa. No es lo mismo la producción de trigo que de
naves espaciales. La estructura de una industria viene determinada por intensidad
de la competencia, competidores potenciales, barreras de entrada, productos
sustitutivos y poder de negociación. Esta estructura se puede analizar mediante
las cinco fuerzas de Porter.
Entorno macroeconómico: la coyuntura económica influirá tanto en las
demandas de productos y servicios como en la necesidad de innovación y mejorar
la eficiencia. Son las fuerzas externas que van a tener un impacto indirecto sobre
la organización.
Entorno microeconómico: el microentorno tiene un impacto directo en su
capacidad de servir su producto o servicio al cliente final, como por ejemplo la
regulación de la industria.
Ejemplo de productividad
Si una empresa puede fabricar 30 pares de zapatos en una hora (productividad =
30 zapatos/hora) y otra empresa fabrica 40 pares en una hora (40 zapatos/hora),
diremos que la productividad es mayor en la segunda empresa, ya que la cantidad
de bienes producidos en un mismo periodo de tiempo es mayor.
Que la segunda empresa sea más productiva que la primera, dependerá de
factores como los siguientes:

 Formación y experiencia de los trabajadores


 Organización empresarial
 Tecnología que se utiliza en el proceso productivo.

No será lo mismo un aprendiz de zapatero, que una persona que lleva muchos
años realizando la misma actividad. Igual que tampoco producirá la misma
cantidad una empresa que utiliza las mejores innovaciones tecnológicas, que otra
que tenga un sistema de producción mucho más rudimentario.

PRE-CONTROL
El Pre-Control, es una técnica usada para detectar irregularidades en el proceso,
que pueden resultar en la producción de unidades fuera de especificaciones. Pre-
control, principalmente se presta para el uso de aparatos de medición hechos
previamente sobre los límites de las especificaciones. El uso de estos aparatos de
medición permite seleccionar fácilmente las unidades que proceden de las que no.
Pre-control es usado con frecuencia para determinar los valores de las variables
del proceso durante el período de arranque de la producción.
Se basa en la hipótesis de que, si el proceso está operando correctamente, la
probabilidad de encontrar dos unidades fuera de los límites de control
consecutivamente es demasiado pequeña. Por lo tanto, si dos unidades son
encontradas consecutivamente fuera de los límites de control, es razón suficiente
como para indicar una falla en el proceso.
Ventajas.
Pre-control es una técnica simple que a diferencia con el control estadístico del
proceso (CEP) no requiere de gráficas de control, ni de cómputos.
Desventajas.
No existen gráficas de control, por lo tanto, las reglas y procedimientos para
reconocer patrones de fallas no pueden ser usados. Dado que se requiere una
cantidad muy pequeña de muestras, es riesgoso inferir sobre la totalidad del
proceso. Finalmente, Pre-control no proporciona información suficiente para
someter el proceso bajo control o para reducir la variabilidad.

Recomendaciones.
Pre-control sólo debe ser usado cuando la capacidad del proceso (Cp.)2 es mayor
que uno (algunos textos recomiendan como mínimo Cp.=2)3, y cuando se han
alcanzado cero defectos en el proceso.

Definición de los límites de Pre-control.


Existen dos límites de Pre-control (PC):
Upper Pre-control limit (UPCL); Limite superior de Pre-control
Lower Pre-control limit (LPCL); Limite inferior de Pre-control

Cad
a
uno
repr
LSL LPCL  UPCL USL esen
ta ¼
0 1
4
1
2
3
4
1 de la
dista
ncia entre el límite de especificaciones inferior (LSL) y el límite de especificaciones
superior (USL).
pasos a seguir para aplicar Pre-control.

Dentro de
Fuera de Especificaciones
Especificaciones Fuera de límites
De Pre-control

A
Continuar el proceso.
Dentro de
Dentro de Detener sólo si DOS
Inicie el Verifique Especificaciones Verifique
de límites Unidades consecutivas
proceso 1a. Unidad Fuera de límites 2a. Unidad
De Pre-control Estan fuera de los
De Pre-control
Límites de
Pre-control

Dentro de
Especificaciones
Fuera de EL OTRO
límite de Pre-control

¡!
Variabilidad del
Proceso fuera de
Control.

Sin cinco unidades están dentro de los límites de Pre-control, cambie a verificación
intermitente.
Cuando se encuentre en verificación intermitente, no ajuste el proceso hasta que
una unidad exceda algún límite de Pre-control. Examine la siguiente unidad, y
proceda en A.
Si se reinicia el proceso, al menos cinco unidades consecutivas deben caer dentro
de los límites de pre-control para cambiar a verificación intermitente.
Si el operador toma más de 25 muestras sin reiniciar el proceso, reduzca la
frecuencia de las verificaciones.
Bibliografía:
www.icicm.com/files/Multi-Vari.doc
www.revistaespacios.com/a04v25n03/04250321.html
www.definicionabc.com/general/percentil.php
www.icicm.com/files/Cartas_de_Pre_control.doc
DANIEL CHIMAL

PHVA: Proceso de cuatro etapas para desarrollar proyectos de mejora; consiste


en planear, hacer, verificar y actuar.
Gutiérrez, P. H., & Vara, S. R. D. L. (2009). Control estadístico de la calidad y
Seis Sigma (2da. ed.). México, D.F., MX: McGraw-Hill Interamericana. Retrieved
from https://kenyjose2110.files.wordpress.com/2014/04/control-estadistico-de-la-
calidad-y-seis-sigma-gutierrez-2da.pdf

QFD: Es una herramienta de planeación que introduce la voz del cliente en el


desarrollo de un producto o un proyecto.
Gutiérrez, P. H., & Vara, S. R. D. L. (2009). Control estadístico de la calidad y
Seis Sigma (2da. ed.). México, D.F., MX: McGraw-Hill Interamericana. Retrieved
from https://kenyjose2110.files.wordpress.com/2014/04/control-estadistico-de-la-
calidad-y-seis-sigma-gutierrez-2da.pdf

RANGO: Medición de la variabilidad de un conjunto de datos que es resultado de


la diferencia entre el dato mayor y el dato menor de la muestra.
Gutiérrez, P. H., & Vara, S. R. D. L. (2009). Control estadístico de la calidad y Seis
Sigma (2da. ed.). México, D.F., MX: McGraw-Hill Interamericana. Retrieved from
https://kenyjose2110.files.wordpress.com/2014/04/control-estadistico-de-la-
calidad-y-seis-sigma-gutierrez-2da.pdf

SESGO: Es una medida numérica de la asimetría en la distribución de un


conjunto de datos.
Gutiérrez, P. H., & Vara, S. R. D. L. (2009). Control estadístico de la calidad y Seis
Sigma (2da. ed.). México, D.F., MX: McGraw-Hill Interamericana. Retrieved from
https://kenyjose2110.files.wordpress.com/2014/04/control-estadistico-de-la-
calidad-y-seis-sigma-gutierrez-2da.pdf

JORGE LUIS MENDOZA


SISTEMA DE MEDICIÓN DEL DESEMPEÑO: Se refiere a cuantificar los signos
vitales de la organización y con base en ellos encauzar el pensamiento de los
empleados y fijar prioridades.
Gutiérrez, P. H., & Vara, S. R. D. L. (2009). Control estadístico de la calidad y Seis
Sigma (2da. ed.). México, D.F., MX: McGraw-Hill Interamericana. Retrieved from
https://kenyjose2110.files.wordpress.com/2014/04/control-estadistico-de-la-
calidad-y-seis-sigma-gutierrez-2da.pdf

TABLAS DE FRECUENCIAS: Representación en forma de tabla de la


distribución de unos datos, a los que se clasifica por su magnitud en cierto número
de clases.
Gutiérrez, P. H., & Vara, S. R. D. L. (2009). Control estadístico de la calidad y Seis
Sigma (2da. ed.). México, D.F., MX: McGraw-Hill Interamericana. Retrieved from
https://kenyjose2110.files.wordpress.com/2014/04/control-estadistico-de-la-
calidad-y-seis-sigma-gutierrez-2da.pdf

VARIABLES DE ENTRADA DEL PROCESO: Son las que definen las


condiciones de operación del proceso e incluyen las variables de control y las que,
aunque no son controladas, influyen en el desempeño del mismo.
Gutiérrez, P. H., & Vara, S. R. D. L. (2009). Control estadístico de la calidad y
Seis Sigma (2da. ed.). México, D.F., MX: McGraw-Hill Interamericana. Retrieved
from https://kenyjose2110.files.wordpress.com/2014/04/control-estadistico-de-la-
calidad-y-seis-sigma-gutierrez-2da.pdf

JOSE GUADALUPE CORTEZ


VARIABLES DE SALIDA: Son todo tipo de indicadores ya sean numéricos,
de texto de nivel, entre otros.

VARIABILIDAD: son cambios inevitables que modifican el proceso (ya sean


pequeños o casi imperceptibles) que afectan posteriormente al producto que se
produce o al servicio que se ofrece. “El enemigo de todo proceso es la variación".
Un administrador exitoso es aquel que logra controlarla.

6M:

Las empresas hoy en día deben no solo buscar que el proceso tenga cero
defectos o en verificar los procesos sino en manejar adecuadamente las 6 M´s:

* Materia prima: esto es buscar que los proveedores sean los adecuados, que
estén certificados de manera tal que ellos también nos ayuden a lograr la calidad

* Mano de obra: preocuparse por dar la capacitación sea dada, lo cual nos llevara
a tener gente calificada que nos ayude a cumplir con el proceso satisfactoriamente

* Maquinaria: estar constantemente dando mantenimiento preventivo de modo tal


que no lleguemos a tener alguna contingencia o problema

* Medio ambiente: buscar que nuestra gente se identifique con la organización,


con la cultura de la empresa, Moral, Valores, etc.

* Medición: contar con un adecuado control de la calidad, equipos, calibración,


planes de muestro, aseguramiento de la calidad

* Métodos: Documentación adecuada de los procesos, por ejemplo 'ISO'

''Esto los llevara a que el proceso no solo sea adecuado sino eficiente''

BEATRIZ ADRIANA SANCHEZ

También podría gustarte