Diseños Grupal1
Diseños Grupal1
Diseños Grupal1
EJERCICIOS GRUPALES
Ejercicio 1
En una fábrica de componentes electrónicos, uno de los principales clientes
reportótener problemas con algunos de los productos (comportamiento
eléctrico intermitente). Mediante el análisis de las muestras retornadas por el
cliente, se identificó que elproblema se relaciona con alambre mal colocado y
podía obedecer a varias causas. Sedecide correr una réplica de un experimento
factorial 25, utilizando los siguientes factores y niveles.
Lm<-lm(Y~A*B*C*D*E)
Gráfico de Pareto
library(pid)
paretoPlot(Lm)
GRáfica de Daniel
library(FrF2)
##
## Attaching package: 'DoE.base'
DanielPlot(Lm)
INTERPRETACIÓN:
Tanto el diagrama de Pareto como el diagrama de Daniel me dice que solo:los efectos A,
D, E, AD y AE son significativos.
b)Determine el mejor análisis de varianza e interprételo.
A<-as.factor(rep(c(-1,1),16))
B<-as.factor(rep(c(-1,1),each=2,8))
C<-as.factor(rep(c(-1,1),each=4,4))
D<-as.factor(rep(c(-1,1),each=8,2))
E<-as.factor(rep(c(-1,1),each=16))
Y<-c(105, 0, 66, 7, 54, 1, 41, 0,
0, 0, 0, 5, 25, 1, 0, 0,
34, 3, 18, 2, 0, 0, 49, 4,
0, 0, 0, 0, 0, 0, 0, 0)
Lm1<-
lm(Y~A+B+C+D+E+(A*B)+(A*C)+(A*D)+(A*E)+(B*C)+(B*D)+(B*E)+(C*D)+(C*E)+(D*E
))
anova(Lm1)
INTERPRETACIÓN:
Efectivamente podemos observar en nuestro ANOVA que solo A, D, E, AD y AE son
significatvios para nuestro modelo, el resto lo descartamos y procedemos a crear un
nuevo ANOVA mejorado solo con los que fueron significativos.
ANOVA MEJORADO solo con los que son significativos: A, D, E, AD y AE
Lm2<-lm(Y~A+D+E+(A*D)+(A*E))
anova(Lm2)
Df Sum Sq Mean Sq F value Pr(>F)
A 1 4255.031 4255.0312 20.577452 0.0001143
D 1 3894.031 3894.0312 18.831646 0.0001920
E 1 1188.281 1188.2812 5.746562 0.0239994
A:D 1 3423.781 3423.7812 16.557503 0.0003903
A:E 1 1069.531 1069.5312 5.172283 0.0314396
Residuals 26 5376.312 206.7812 NA NA
Tabla2<-add.response(design = Tabla2,response = Y)
Tabla2
A D E Blocks Y
-1 -1 -1 .1 105
1 -1 -1 .1 0
-1 1 -1 .1 66
1 1 -1 .1 7
-1 -1 1 .1 54
1 -1 1 .1 1
-1 1 1 .1 41
1 1 1 .1 0
-1 -1 -1 .2 0
1 -1 -1 .2 0
-1 1 -1 .2 0
1 1 -1 .2 5
-1 -1 1 .2 25
1 -1 1 .2 1
-1 1 1 .2 0
1 1 1 .2 0
-1 -1 -1 .3 34
1 -1 -1 .3 3
-1 1 -1 .3 18
1 1 -1 .3 2
-1 -1 1 .3 0
1 -1 1 .3 0
-1 1 1 .3 49
1 1 1 .3 4
-1 -1 -1 .4 0
1 -1 -1 .4 0
-1 1 -1 .4 0
1 1 -1 .4 0
-1 -1 1 .4 0
1 -1 1 .4 0
-1 1 1 .4 0
1 1 1 .4 0
## (Intercept) A D E A:D
A:E
## 12.96875 -11.53125 -11.03125 -6.09375 10.34375
5.78125
A D E Blocks Y
-1 -1 -1 .1 105
1 -1 -1 .1 0
-1 1 -1 .1 66
1 1 -1 .1 7
-1 -1 1 .1 54
1 -1 1 .1 1
-1 1 1 .1 41
1 1 1 .1 0
-1 -1 -1 .2 0
1 -1 -1 .2 0
-1 1 -1 .2 0
1 1 -1 .2 5
-1 -1 1 .2 25
1 -1 1 .2 1
-1 1 1 .2 0
1 1 1 .2 0
-1 -1 -1 .3 34
1 -1 -1 .3 3
-1 1 -1 .3 18
1 1 -1 .3 2
-1 -1 1 .3 0
1 -1 1 .3 0
-1 1 1 .3 49
1 1 1 .3 4
-1 -1 -1 .4 0
1 -1 -1 .4 0
-1 1 -1 .4 0
1 1 -1 .4 0
-1 -1 1 .4 0
1 -1 1 .4 0
-1 1 1 .4 0
1 1 1 .4 0
Finalmente realizamos el cubo para ver cual es nuestro mejor tratamiento corremos el
modelo que es sin asfactor.
cubePlot(Y, eff1 = A, eff2 = D, eff3 = E)
Interpretación:
Podemos observar que el valor que reduce el número de unidades de alambre mal
colocado es el 1.5 (es el numero mas pequeño) que corresponde al tratamiento (+,+,-).
Por lo tanto para reducir el numero de unidades de alambre mal colocadas el
tratamiengo GANADOR se necesita tener: El efecto A (Patron de reconocimiento) en
su nivel alto (dos puntos),el efecto D (colocación del dado) en su nivel alto (normal) y
el efecto E (brillo de la oblea) en su nivel bajo (brillo).
e) Verifique los supuestos del modelo. ¿Qué puede concluir del análisis?
SUPUESTOS
par(mfrow=c(2,2))
plot(Lm2)
##
## Shapiro-Wilk normality test
##
## data: residuals(Lm2)
## W = 0.85138, p-value = 0.0004446
boxplot(residuals(Lm2))
Interpretación
p-valor = 0.0004446 menor 𝛼 = 0.05 -> A.H1 .El p-valor obtenido es menor que el nivel de
significancia propuesto de 5% , por lo tanto hay evidencia para decir que los errores no
siguen una distribucion normal.
Homocedasticidad
H0: Los errores tienen varianza constante
H1: Los errores no tienen varianza constante
var.test(Y~A)
##
## F test to compare two variances
##
## data: Y by A
## F = 206.85, num df = 15, denom df = 15, p-value = 2.665e-14
## alternative hypothesis: true ratio of variances is not equal to 1
## 95 percent confidence interval:
## 72.27098 592.01302
## sample estimates:
## ratio of variances
## 206.8462
Interpretación
p-valor menor 𝛼 = 0.05 -> A.H1. El p-valor obtenido es menor que el nivel de significancia
propuesto de 5% , por lo tanto hay evidencia para decir que los errores no tienen
varianza constante.
var.test(Y~D)
##
## F test to compare two variances
##
## data: Y by D
## F = 24.913, num df = 15, denom df = 15, p-value = 1.328e-07
## alternative hypothesis: true ratio of variances is not equal to 1
## 95 percent confidence interval:
## 8.704455 71.303186
## sample estimates:
## ratio of variances
## 24.91296
Interpretación
p-valor = 0.2156 menor 𝛼 = 0.05 -> A.H1. El p-valor obtenido es menor que el nivel de
significancia propuesto de 5% , por lo tanto hay evidencia para decir que los errores no
tienen varianza constante.
var.test(Y~E)
##
## F test to compare two variances
##
## data: Y by E
## F = 4.7134, num df = 15, denom df = 15, p-value = 0.004739
## alternative hypothesis: true ratio of variances is not equal to 1
## 95 percent confidence interval:
## 1.646843 13.490234
## sample estimates:
## ratio of variances
## 4.713417
Interpretación
p-valor = 0.004 menor 𝛼 = 0.05 -> A.H1 .El p-valor obtenido es menor que el nivel de
significancia propuesto de 5% , por lo tanto hay evidencia para decir que los errores no
tienen varianza constante.
Independencia
H0: Los errores estan incorrelados
H1: Los errores estan correlados
library(lmtest)
## Loading required package: zoo
##
## Attaching package: 'zoo'
dwtest(Lm2)
##
## Durbin-Watson test
##
## data: Lm2
## DW = 1.5654, p-value = 0.1353
## alternative hypothesis: true autocorrelation is greater than 0
Interpretación:
p-valor = 0.1353 MAYOR 𝛼 0.05 -> A.H0 .El pvalor obtenido es mayor que el nivel de
significancia propuesto de 5% , por lo tanto hay evidencia para decir que los errores
estan incorrelados es decir hay independencia.
f) ¿La forma especial de la gráfica de residuos contra predichos, afecta las
conclusiones a la que llega antes?
Yo creo que de cierto modo si va a afectar porque al realizar la prueba de bartlett.test
para las variables A,D,E ACEPTAMOS H1 es decir que los errores no tienen varianza
constante.
g) ¿Es pertinente colapsar este diseño en un factorial 24 con dos réplicas?
Si la respuesta es positiva, hágalo.
No es pertinente colapsar este diseño en un 24 ya que los unicos efectos que fueron
significativos eran solo 3 entonces mejor es preferible realizar un 23 .
h) ¿Se puede colapsar en un 23 con cuatro réplicas?
En el análisis del experimento sobre el numero de unidades de alambre mal colocadas
una de la conclusiones fue que no tuvieron ningon efecto los factores B (sistema de
luz) y C (Umbral). Este hecho da pie a colapsar el diseño en esas dos direcciones para
convertirlo en un diseño factorial 23 con cuatro réplicas. Estas réplicas son mas que
sucientes para obtener un buen estimador del cuadrado medio del error en el ANOVA.
Ejercicio 2
Una de las fallas más importantes en la línea de empaque de un producto es la
calidad de las etiquetas. Un equipo de mejora decide atacar este problema
mediante diseño de experimentos. Para ello eligen una de las impresoras a la
cual se le pueden manipular los factores: velocidad, temperatura, tensión y tipo
de etiqueta. Los niveles utilizados con cada factor fueron:
modelo<-lm(fallas~temperatura*velocidad*etiqueta*tension)
tabla con los datos ordenados
df <- data.frame(temperatura, velocidad, etiqueta, tension, fallas)
fix(df)
Gráfica de Pareto
Para encontrar el mejor ANOVA primero realizamos el diagrama de pareto:
paretoPlot(modelo)
Interpretación:
Se observa que los efectos temperatura (A), velocidad(B) y temperatura X velocidad(AB)
influyen en la variable respuesta.
Gráfica de Daniel
El Diagrama de Daniel no se puede realizar para diseños con punto al centro.
ANOVA
anova(modelo)
D
f Sum Sq Mean Sq F value Pr(>F)
temperatura 1 370.562 370.562 18.00000 0.05131
50 50 00 67
velocidad 1 105.062 105.062 5.103390 0.15238
50 50 1 91
etiqueta 1 45.5625 45.5625 2.213189 0.27522
0 0 4 40
tension 1 7.56250 7.56250 0.367346 0.60608
9 07
temperatura:velocidad 1 105.062 105.062 5.103390 0.15238
50 50 1 91
temperatura:etiqueta 1 45.5625 45.5625 2.213189 0.27522
0 0 4 40
velocidad:etiqueta 1 1.56250 1.56250 0.075898 0.80878
1 92
temperatura:tension 1 7.56250 7.56250 0.367346 0.60608
9 07
velocidad:tension 1 39.0625 39.0625 1.897453 0.30225
0 0 2 77
etiqueta:tension 1 10.5625 10.5625 0.513071 0.54815
0 0 3 81
temperatura:velocidad:etiqueta 1 1.56250 1.56250 0.075898 0.80878
1 92
temperatura:velocidad:tension 1 39.0625 39.0625 1.897453 0.30225
0 0 2 77
temperatura:etiqueta:tension 1 10.5625 10.5625 0.513071 0.54815
0 0 3 81
velocidad:etiqueta:tension 1 22.5625 22.5625 1.095969 0.40502
0 0 0 21
temperatura:velocidad:etiqueta:te 1 22.5625 22.5625 1.095969 0.40502
nsion 0 0 0 21
Residuals 2 41.1736 20.5868 NA NA
1 1
modelo2<-lm(fallas~temperatura+velocidad+etiqueta+tension+
(temperatura*velocidad)+(temperatura*etiqueta)+(temperatura*tension)
+(velocidad*etiqueta)+(velocidad*tension)+(etiqueta*tension))
anova(modelo2)
Interpretación:
Al realizar el anova con los efectos principales y de interaccion doble obtenemos la
misma conclusion que se llego con el diagrama de pareto. Finalmente al ANOVA
aumentamos la curvatuta y concluimos que la curvatura no es significativa.
c) Grafique los efectos significativos e interprételos para determinar el
tratamiento ganador.
datos1<-FrF2(nruns = 16,nfactors = 4,factor.names = list(tempe=c(-1,1),
veloc=c(-1,1),
etique=c(-1,1),
tensi=c(-1,1)),
replications = 1,ncenter = 2, randomize = F)
##
## Call:
## lm.default(formula = fallas ~ temperatura * velocidad +
I(temperatura^2) +
## I(velocidad^2))
##
## Residuals:
## Min 1Q Median 3Q Max
## -12.500 0.000 0.000 1.312 4.500
##
## Coefficients: (1 not defined because of singularities)
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) 20.000 3.124 6.402 2.34e-05 ***
## temperatura -4.813 1.105 -4.357 0.000777 ***
## velocidad 2.563 1.105 2.320 0.037248 *
## I(temperatura^2) -4.813 3.314 -1.452 0.170104
## I(velocidad^2) NA NA NA NA
## temperatura:velocidad 2.563 1.105 2.320 0.037248 *
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 4.418 on 13 degrees of freedom
## Multiple R-squared: 0.7102, Adjusted R-squared: 0.621
## F-statistic: 7.965 on 4 and 13 DF, p-value: 0.001791
modelo3$coefficients
modelo3$fitted.values
## 1 2 3 4 5 6 7 8 9 10 11
12 13
## 20.00 5.25 20.00 15.50 20.00 5.25 20.00 15.50 20.00 5.25 20.00
15.50 20.00
## 14 15 16 17 18
## 5.25 20.00 15.50 20.00 20.00
Interpretación:
El valor de R CUADRADO nos salio 0,7102 entonces se puede concluir que el mejor
modelo es bueno para predecir el numero de etiquetas que presenten fallas, la prediccion
para el mejor tratamiento (temperatura alta y velocidad baja) es 5,25 etiquetas
rechazadas.
e) Verifique supuestos. ¿Hay algún problema potencial?
Para los modelos 2𝐾 con punto al centro no se pueden realizar la comprobacion de
supuestos.
Ejercicio 3
Se hace un experimento para mejorar el rendimiento de un proceso,
controlando cuatro factores en dos niveles cada uno. Se corre una réplica de un
diseño factorial 24, con los factores tiempo (A),concentración (B), presión (C) y
temperatura (D), y los resultados son los siguientes:
Ao A1
Bo B1 Bo B1
Co C1 Co C2 Co C2 Co C2
Do 12 17 13 20 18 15 16 15
D1 10 19 13 17 25 21 24 23
A<-as.factor(rep(c(-1,1),each=8,1))
A
## [1] -1 -1 -1 -1 -1 -1 -1 -1 1 1 1 1 1 1 1 1
## Levels: -1 1
B<-as.factor(rep(c(-1,1),each=4,2))
B
## [1] -1 -1 -1 -1 1 1 1 1 -1 -1 -1 -1 1 1 1 1
## Levels: -1 1
C<-as.factor( rep(c(-1,1),each=2,4))
C
## [1] -1 -1 1 1 -1 -1 1 1 -1 -1 1 1 -1 -1 1 1
## Levels: -1 1
D<-as.factor(rep(c(-1,1),8))
D
## [1] -1 1 -1 1 -1 1 -1 1 -1 1 -1 1 -1 1 -1 1
## Levels: -1 1
y1<-c(12, 10, 17, 19, 13, 13, 20, 17, 18, 25, 15, 21, 16, 24, 15, 23)
a) Analice estos datos con el uso de todos los criterios existentes para encontrar
el mejor ANOVA. En las figuras considere de entrada los 15 efectos posibles.
lmod1<-
lm(y1~A+B+C+D+(A*B)+(A*C)+(B*C)+(A*B*C)+(A*D)+(B*D)+(A*B*D)+(C*D)+(A*C*D)
+(B*C*D)+(A*B*C*D))
lmod1
##
## Call:
## lm.default(formula = y1 ~ A + B + C + D + (A * B) + (A * C) +
## (B * C) + (A * B * C) + (A * D) + (B * D) + (A * B * D) +
## (C * D) + (A * C * D) + (B * C * D) + (A * B * C * D))
##
## Coefficients:
## (Intercept) A1 B1 C1 D1
A1:B1
## 1.200e+01 6.000e+00 1.000e+00 5.000e+00 -2.000e+00 -
3.000e+00
## A1:C1 B1:C1 A1:D1 B1:D1 C1:D1
A1:B1:C1
## -8.000e+00 2.000e+00 9.000e+00 2.000e+00 4.000e+00 -
4.996e-15
## A1:B1:D1 A1:C1:D1 B1:C1:D1 A1:B1:C1:D1
## -1.000e+00 -5.000e+00 -7.000e+00 8.000e+00
modelo<-anova(lmod1)
modelo
##
## Shapiro-Wilk normality test
##
## data: y1
## W = 0.97299, p-value = 0.8844
Introduccion
Al 95% deconfianza no se rechaza la hipotesis nula es decir que los supuestos cumplen
con normalidad.
HOMOCEDASTICIDAD
bartlett.test(y1~A)
##
## Bartlett test of homogeneity of variances
##
## data: y1 by A
## Bartlett's K-squared = 0.12489, df = 1, p-value = 0.7238
bartlett.test(y1~B)
##
## Bartlett test of homogeneity of variances
##
## data: y1 by B
## Bartlett's K-squared = 0.095367, df = 1, p-value = 0.7575
bartlett.test(y1~C)
##
## Bartlett test of homogeneity of variances
##
## data: y1 by C
## Bartlett's K-squared = 2.6819, df = 1, p-value = 0.1015
bartlett.test(y1~D)
##
## Bartlett test of homogeneity of variances
##
## data: y1 by D
## Bartlett's K-squared = 3.1597, df = 1, p-value = 0.07548
Interpretación
Al 95% deconfianza no se rechaza la hipotesis nula es decir que los supuestos cumplen
con independencia.
e) ¿Puede este diseño colapsarse en uno 23 con dos réplicas? De ser posible,
hagalo y repita los incisos anteriores para este nuevo diseño.
A1<-as.factor(rep(c(-1,1),each=4,2))
A1
## [1] -1 -1 -1 -1 1 1 1 1 -1 -1 -1 -1 1 1 1 1
## Levels: -1 1
B1<-as.factor(rep(c(-1,1),each=2,4))
B1
## [1] -1 -1 1 1 -1 -1 1 1 -1 -1 1 1 -1 -1 1 1
## Levels: -1 1
C1<-as.factor(rep(c(-1,1),8))
C1
## [1] -1 1 -1 1 -1 1 -1 1 -1 1 -1 1 -1 1 -1 1
## Levels: -1 1
y<-c(12, 17, 13, 20, 18, 15, 16, 15, 10, 19, 13, 17, 25, 21, 24, 23)
lmod2<-lm(y~A1*B1*C1)
a) Analice estos datos con el uso de todos los criterios existentes para encontrar
el mejor ANOVA.
anova(lmod2)
paretoPlot(hh)
Como se observa en el diagrama de pareto el mejor tratamiento es el tiempo
d) Compruebe los supuestos del modelo.
NORMALIDAD
shapiro.test(residuals(lmod2))
##
## Shapiro-Wilk normality test
##
## data: residuals(lmod2)
## W = 0.93301, p-value = 0.272
boxplot(residuals(lmod2))
Interpretación
Al 95% deconfianza no se rechaza la hipotesis nula es decir que los datos cumplen con
normalidad.
HOMOCEDASTICIDAD
bartlett.test(y~A1)
##
## Bartlett test of homogeneity of variances
##
## data: y by A1
## Bartlett's K-squared = 0.12489, df = 1, p-value = 0.7238
bartlett.test(y~B1)
##
## Bartlett test of homogeneity of variances
##
## data: y by B1
## Bartlett's K-squared = 0.095367, df = 1, p-value = 0.7575
bartlett.test(y~C1)
##
## Bartlett test of homogeneity of variances
##
## data: y by C1
## Bartlett's K-squared = 2.6819, df = 1, p-value = 0.1015
Interpretación
Al 95% de confianza no se rechaza la hipotesis nula en tiempo, concentración, presión y
temperatura es decir si cumple homocedasticidad.
INDEPENDENCIA
library(lmtest)
dwtest(lmod2)
##
## Durbin-Watson test
##
## data: lmod2
## DW = 0.66087, p-value = 0.01731
## alternative hypothesis: true autocorrelation is greater than 0
Interpretación
A un nivel de confianza del 95% se obtuvo un p_valuemayor a cualquier nivel de
significancia por lo que se puede decir que los datos son independientes.
Ejercicio 4
En una empresa del área electrónica se quieren minimizar los problemas
generados en el proceso conocido como “Soldadora de ola”.Los defectos que se
quieren reducir son insuficiencias de soldadura en las tarjetas. Los factores y
niveles que inicialmente se decide estudiar son:
Los efectos que son mas importantes son:Velocidad, Precalentado, Velocidad con
Precalentado y Velocidad con Precalentado y Soldadura.
RESIDUOS
NORMALIDAD
shapiro.test(residuals(modelo))
##
## Shapiro-Wilk normality test
##
## data: residuals(modelo)
## W = 0.98045, p-value = 0.9671
dev.off()
## null device
## 1
boxplot(residuals(modelo))
Interpretación
Al 95% deconfianza no se rechaza la hipotesis nula es decir que los supuestos cumplen
con normalidad.
HOMOCEDASTICIDAD
bartlett.test(y1~A)
##
## Bartlett test of homogeneity of variances
##
## data: y1 by A
## Bartlett's K-squared = 8.7978, df = 1, p-value = 0.003016
bartlett.test(y1~B)
##
## Bartlett test of homogeneity of variances
##
## data: y1 by B
## Bartlett's K-squared = 7.8427, df = 1, p-value = 0.005103
bartlett.test(y1~C)
##
## Bartlett test of homogeneity of variances
##
## data: y1 by C
## Bartlett's K-squared = 0.91586, df = 1, p-value = 0.3386
Interpretación
Al 95% de confianza se rechaza la hipotesis nula en la velocidad y en el precalentado,
esdecir no cumple homocedasticidad; mietras que la soldadura si cumple
homocedasticidad.
INDEPENDENCIA
library(lmtest)
dwtest(modelo)
##
## Durbin-Watson test
##
## data: modelo
## DW = 2.7334, p-value = 0.3443
## alternative hypothesis: true autocorrelation is greater than 0
Interpretación
Al 95% deconfianza no se rechaza la hipotesis nula es decir que los supuestos cumplen
con independencia.
b) Al parecer, la interacción velocidad-precalentado es importante, de ser así
realice una interpretación detallada de tal interacción en términos físicos.
A1<-rep(c(-1,1),8)
B1<-rep(c(-1,1),each=2,4)
C1<- rep(c(-1,1),each=4,2)
y_1<-c(25, 110, 27, 59, 44, 162, 35, 48,
29, 110, 23, 77, 12, 146, 51,42)
hh<-lm(y_1~A1*B1*C1)
paretoPlot(hh)
interaction.plot(A,B,y1)
Interpretación
Como se puede observar en el grafico de pareto y en la grafica de interaccion existe una
relacion significativa entre la velocidad y el precalentado es decir que a mayor
temperatura de precalentado y menor velocidad de conveyor existe menor catidad de
insuficiencias.
c) ¿Cuáles serán las condiciones de operación del proceso que podr?an
utilizarse para reducir la cantidad de insuficiencias? Analice las opciones
disponibles
Para reducir la cantidad de insuficiencias se recomienda que la temperatura de
precalentado sea de 120°C y la velocidad de conveyor sea 4 pies/minuto.
Ejercicio 5
El tequila es una bebida que está sujeta a una norma oficial mexicana, y
conforme a ésta se debe cumplir con ciertas especificaciones físico-químicas. En
un laboratorio de investigación, mediante un diseño factorial 25 no replicado,
se estudio la influencia de diversos factores sobre la producción de alcoholes
superiores en la etapa de fermentación. Los factores estudiados y los niveles
fueron: tipo de cepa, A(1, 2), temperatura, B(30, 35°C), fuente de nitr?geno,
C(NH4)2SO4 y urea-, relación carbono/nitrógeno, D(62/1, 188/1) y porcentaje
de inóculo, E(5 y 10%). En la siguiente tabla se muestran los resultados
obtenidos en cuanto a alcohol isoam?lico (mg/L), que es parte de los alcoholes
superiores.
(1)=21,4 d=42,5 e=32,9 de=54,0
a=16,8 ad=21,0 ae=17,5 ade=21,8
b=29,3 bd=79,1 be=30,0 bde=79,9
ab=12,7 abd=20,0 abe=24,1 abde=31,5
c=27,5 cd=48,6 ce=26,7 cde=47,9
ac=22,9 acd=27,1 ace=11,4 acde=15,6
bc=35,4 bcd=85,2 bce=23,9 bcde=73,8
abc=18,8 abcd=26,1 abce=18,0 abcde=25,4
## [1] -1 1 -1 1 -1 1 -1 1 -1 1 -1 1 -1 1 -1 1 -1 1 -1 1 -1 1
-1 1 -1
## [26] 1 -1 1 -1 1 -1 1
B<-as.factor(rep(c(-1,1),each=2,8))
B
## [1] -1 -1 1 1 -1 -1 1 1 -1 -1 1 1 -1 -1 1 1 -1 -1 1 1 -1 -1
1 1 -1
## [26] -1 1 1 -1 -1 1 1
## Levels: -1 1
C<-as.factor(rep(c(-1,1),each=4,4))
C
## [1] -1 -1 -1 -1 1 1 1 1 -1 -1 -1 -1 1 1 1 1 -1 -1 -1 -1 1 1
1 1 -1
## [26] -1 -1 -1 1 1 1 1
## Levels: -1 1
D<-as.factor(rep(c(-1,1),each=8,2))
D
## [1] -1 -1 -1 -1 -1 -1 -1 -1 1 1 1 1 1 1 1 1 -1 -1 -1 -1 -1 -1
-1 -1 1
## [26] 1 1 1 1 1 1 1
## Levels: -1 1
E<-as.factor(rep(c(-1,1),each=16))
E
## [1] -1 -1 -1 -1 -1 -1 -1 -1 -1 -1 -1 -1 -1 -1 -1 -1 1 1 1 1 1 1
1 1 1
## [26] 1 1 1 1 1 1 1
## Levels: -1 1
y1<-
c(21.4,16.8,29.3,12.7,27.5,22.9,35.4,18.8,42.5,21,79.1,20,48.6,27.1,85.2,
26.1,32.9,17.5,30,24.1,26.7,11.4,23.9,18,54,21.8,79.9,31.5,47.9,15.6,73.8
,25.4
)
library(pid)
lmod2<-lm(y1~A*B*C*D*E)
paretoPlot(lmod2)
DanielPlot(lmod2)
¿Cuáles efectos parecen estar activos?
Los efectos activos son: BD ; D ; ABE ; E ; C ; B ; ABCDE ; ADE ; ACE ; BDE ; BCE ; DE
b) Determine el mejor análisis de varianza e interprételo.
lmod1<-lm(y1~A+B+C+D+E+(A*B)+(A*C)+(A*D)+(A*E)+(B*C)+
(B*D)+(B*E)+(C*D)+(C*E)+(D*E))
modelo<-anova(lmod1)
modelo
A B C Blocks y1
-1 -1 -1 .1 21.4
1 -1 -1 .1 16.8
-1 1 -1 .1 29.3
1 1 -1 .1 12.7
-1 -1 1 .1 27.5
1 -1 1 .1 22.9
-1 1 1 .1 35.4
1 1 1 .1 18.8
-1 -1 -1 .2 42.5
1 -1 -1 .2 21.0
-1 1 -1 .2 79.1
1 1 -1 .2 20.0
-1 -1 1 .2 48.6
1 -1 1 .2 27.1
-1 1 1 .2 85.2
1 1 1 .2 26.1
-1 -1 -1 .3 32.9
1 -1 -1 .3 17.5
-1 1 -1 .3 30.0
1 1 -1 .3 24.1
-1 -1 1 .3 26.7
1 -1 1 .3 11.4
-1 1 1 .3 23.9
1 1 1 .3 18.0
-1 -1 -1 .4 54.0
1 -1 -1 .4 21.8
-1 1 -1 .4 79.9
1 1 -1 .4 31.5
-1 -1 1 .4 47.9
1 -1 1 .4 15.6
-1 1 1 .4 73.8
1 1 1 .4 25.4
MEPlot(tabla2,lwd=2)
IAPlot(tabla2,lwd=2)
##
## Call:
## lm.default(formula = y1 ~ A + B + D + (A * B) + (A * D) + (B *
## D) + (C * E))
##
## Coefficients:
## (Intercept) A B1 D1 C1
E1
## 19.087 -1.787 1.888 12.675 6.100
6.113
## A:B1 A:D1 B1:D1 C1:E1
## -7.038 -14.850 15.925 -12.225
##
## Shapiro-Wilk normality test
##
## data: residuals(mejor)
## W = 0.84286, p-value = 0.0002917
boxplot(residuals(mejor))
Interpretación
Rechazo la hipotesis nula y se indica que no son normales los datos se nota que existe un
dato atípico y es necesario realizar una corrección de este dato
ver datos atipicos que afecten el modelo
library(tseries)
jarque.bera.test(residuals(mejor))
##
## Jarque Bera Test
##
## data: residuals(mejor)
## X-squared = 1.417, df = 2, p-value = 0.4924
Interpretación
Acepto h1 y digo q los datos influyen en la normalidad del proceso
H0= datos no influyen en la normalidad del proceso
H1= Los datos influyen en la normalidad del proceso
library(car)
outlierTest(mejor)
interpretación
el dato de la posicion 17 es atipico estos datos atipicos afectan a la normalidad
homocedasticidad
bartlett.test(y1~A)
##
## Bartlett test of homogeneity of variances
##
## data: y1 by A
## Bartlett's K-squared = 22.296, df = 1, p-value = 2.337e-06
Interpretación
No rechazo la hipotesis nula lo que indica que siguen homocedasticidad el efect A
bartlett.test(y1~B)
##
## Bartlett test of homogeneity of variances
##
## data: y1 by B
## Bartlett's K-squared = 5.9236, df = 1, p-value = 0.01494
Interpretación
Rechazo la hipotesis nula lo que indica que siguen homocedasticidad el efect B
bartlett.test(y1~C)
##
## Bartlett test of homogeneity of variances
##
## data: y1 by C
## Bartlett's K-squared = 1.1695e-06, df = 1, p-value = 0.9991
Interpretación
No rechazo la hipotesis nula lo que indica que siguen homocedasticidad el efect A
bartlett.test(y1~D)
##
## Bartlett test of homogeneity of variances
##
## data: y1 by D
## Bartlett's K-squared = 18.252, df = 1, p-value = 1.936e-05
Interpretación
No rechazo la hipotesis nula lo que indica que siguen homocedasticidad el efect A
bartlett.test(y1~E)
##
## Bartlett test of homogeneity of variances
##
## data: y1 by E
## Bartlett's K-squared = 0.029758, df = 1, p-value = 0.863
interpretación
No rechazo la hipotesis nula lo que indica que siguen homocedasticidad el efect A
independencia
library(lmtest)
dwtest(mejor)
##
## Durbin-Watson test
##
## data: mejor
## DW = 2.3976, p-value = 0.7477
## alternative hypothesis: true autocorrelation is greater than 0
Interpretación
No rechazo la hipotesis nula lo que indica que los datos si son independientes
f) ¿Es pertinente colapsar este diseño en un factorial 24 con dos réplicas? Si la
respuesta es positiva, hágalo.
No es pertinente colapsar este diseño en un factorial 24 ya que tenemos 5 efecto y
seria casi imposible realizar predicciones aun menos realizar las dos replicas ya que
esto nos generara un gasto y pasantia de tiempo muy extremandamente extenso lo
mejor es correjir el dato atipico que se tiene y realizar las modificaciones necesarias.
Ejemplo 6
Se desea investigar de qué manera afecta el tiempo de curado y el tipo del
acelerante a la resistencia de caucho vulcanizado. Se realiza un experimento y
se obtienen los siguientes datos:
## [1] -1 -1 -1 0 0 0 1 1 1 -1 -1 -1 0 0 0 1 1 1
## Levels: -1 0 1
efectoB<-as.factor(rep(c(-1,0,1),6))
efectoB
## [1] -1 0 1 -1 0 1 -1 0 1 -1 0 1 -1 0 1 -1 0 1
## Levels: -1 0 1
lmod2<-lm(pegamento~efectoA*efectoB)
lmod2
##
## Call:
## lm.default(formula = pegamento ~ efectoA * efectoB)
##
## Coefficients:
## (Intercept) efectoA0 efectoA1
efectoB0
## 3.750e+03 5.000e+01 1.500e+02
2.500e+02
## efectoB1 efectoA0:efectoB0 efectoA1:efectoB0
efectoA0:efectoB1
## 1.500e+02 -6.029e-14 -2.000e+02 -
2.089e-13
## efectoA1:efectoB1
## -3.500e+02
## [1] -1 -1 -1 0 0 0 1 1 1 -1 -1 -1 0 0 0 1 1 1
## Levels: -1 0 1
efectoB<-as.factor(rep(c(-1,0,1),6))
efectoB
## [1] -1 0 1 -1 0 1 -1 0 1 -1 0 1 -1 0 1 -1 0 1
## Levels: -1 0 1
anova(lmod2)
Interpretacion
Al 95% de confianza se obtuvo que ninguno de los tratamientos es significativo al
modelo y por lo tanto el tiempo de curado a 40, 60 y 80 min no afecta al resistencia del
caucho .Así como el tipo de acelerante A, B, C tampoco afecta a la resistencia del caucho.
d)En caso de haberlo, señale el tiempo de cura que es mejor para aumentar la
resistencia.e)Señale el acelerante que es mejor (si es que lo hay), para aumentar
la resistencia.f)¿Hay alguna combinación de tiempo y acelerante que sea mejor?
Diga cuál es, si lahay.g)Verifique que se cumplan los supuestos. En caso de que
no se cumpliera el supuesto de igual varianza para tiempo de cura, ¿qué
significaría eso?
boxplot(pegamento
~efectoA,horizontal=T,col=c("red","blue","pink","green"))
tapply(pegamento,efectoA,mean)
## -1 0 1
## 3883.333 3933.333 3850.000
library(gplots)
##
## Attaching package: 'gplots'
plotmeans(pegamento~efectoA)
Interpretación
Como podemos observar en la gráfica los tres tiempos de cura serian iguales ya que ay
un excelente traslape entre los tres tiempos.
e)Señale el acelerante que es mejor (si es que lo hay), para aumentar la
resistencia.
boxplot(pegamento ~
efectoB,horizontal=T,col=c("red","blue","pink","green"))
tapply(pegamento,efectoB,mean)
## -1 0 1
## 3816.667 4000.000 3850.000
library(gplots)
plotmeans(pegamento~efectoB)
Interpretación
Los tres tipos de acelerantés son iguales al existir un excelente traslape entre ellos como
se puede observar en la gráfica.
f)¿Hay alguna combinación de tiempo y acelerante que sea mejor? Diga cuál es,
si la hay.
Tratamiento ganador
EFECTO DE INTERACCION AB
interaction.plot(efectoA,efectoB,pegamento)
Interpretación
La mejor resistencia al caucho seria a un tiempo de 60 min con el acelerarte del tipo B
g)Verifique que se cumplan los supuestos. En caso de que no se cumpliera el
supuesto de igual varianza para tiempo de cura, ¿qué significaría eso?
Supuestos del modelo
INDEPENDENCIA
Ho los errores estan incorrelados
H1 los errores estan correlados
require(lmtest)
FF<-data.frame(efectoA,efectoB,pegamento)
dwtest(pegamento~efectoA*efectoB,data=FF)
##
## Durbin-Watson test
##
## data: pegamento ~ efectoA * efectoB
## DW = 2.1311, p-value = 0.6543
## alternative hypothesis: true autocorrelation is greater than 0
Interpretación
El valor p de la prueba de durvin watson es mayor a cualquier valor de significancia y se
acepta ho y se dice que hay independencia de los datos
NORMALIDAD
Ho los errores son normales
H1 los errores no siguen una distribucion normal
Lmod<-lm(pegamento~efectoB*efectoA)
shapiro.test(residuals(Lmod))
##
## Shapiro-Wilk normality test
##
## data: residuals(Lmod)
## W = 0.95118, p-value = 0.4438
Interpretación
Al haber realizado la prueba de shapiro al 95% de confianza se Obtiene un p-value del
0,449 que es superior al p teorico de 0,05por lo cualno se rechaza la hipotesis nula y por
ende se puede concluir que los datos siguen una distribucion normal
HOMOCEDASTICIDAD
Ho tienen varianza constante
H1 no tienen varianza constante
bartlett.test(pegamento~interaction(efectoA,efectoB))
##
## Bartlett test of homogeneity of variances
##
## data: pegamento by interaction(efectoA, efectoB)
## Bartlett's K-squared = 3.7401, df = 8, p-value = 0.8798
bartlett.test(residuals(Lmod)~interaction(efectoA,efectoB))
##
## Bartlett test of homogeneity of variances
##
## data: residuals(Lmod) by interaction(efectoA, efectoB)
## Bartlett's K-squared = 3.7401, df = 8, p-value = 0.8798
Interpretacion
Despues de haber realizado el test de bartlett al 95% de confienza se obtuvo un p-value
del 0,058 que es mayor al 0,05 por lo cual se acepta la hipotesis nula y se puede concluir
que los datos tiene varianza constante.
boxplot(residuals(Lmod)~efectoA*efectoB)
boxplot(pegamento~efectoA)
boxplot(pegamento~efectoB)
Interpretacion
Debe de existir mucha dspersión en los datos por lo cual puede ocurrir que la varianza
no sea igual entre los distintos tratamientos o a su vez existe un factor que esta
afectando a los mismo por lo cual este esta generando este efecto y tambien pueda
deberse a la existencia de datos atipicos.
Ejercicio 7
Se aplican pinturas tapaporos para aeronaves en superficies de aluminio, con
dos métodos: inmersión y rociado. La finalidad del tapaporos es mejorar la
adhesión de la pintura, y puede aplicarse en algunas partes utilizando cualquier
método. El grupo de ingeniería de procesos responsable de esta operación está
interesado en saber si existen diferencias entre tres tapaporos diferentes en
cuanto a sus propiedades de adhesión. Para investigar el efecto que tienen el
tipo de pintura tapaporos y el método de aplicación sobre la adhesión de la
pintura, se realiza un diseño factorial. Para ello, se pintan tres muestras con
cada tapaporo utilizando cada método de aplicació, después se aplica una capa
final de pintura y a continuación se mide la fuerza de adhesión. Los datos son los
siguientes:
Interpretación
a un nivel de significancia del 5% y a cualquier nivel de significancia, el efecto del factor
Tapaporos y el efecto del factor Metodo son estadisticamente altamente significativos, es
decir, tienen un efecto sobre la variable respuesta fuerza de adhesion, mientras que, el
efecto de la interacion AB, estadisticamente no es significativo, no tiene ningun efecto
sobre la variable respuesta.
c) Realice la gráfica de efectos principales y de interaccion, destaque los
aspectos más relevantes. ¿Cuál es el mejor tratamiento?
Efecto principal del factor Tapaporos
plotmeans(fuerza ~ Tapaporos, bars = F)
##
## Shapiro-Wilk normality test
##
## data: ml1$residuals
## W = 0.93702, p-value = 0.2575
plot(ml1, which = 2)
Interpretación
Por medio del test de shapiro, se comprueba que a un nivel de signifiacnia del 5% no se
rechaza H0 y se concluye que los residuos siguen una ley normal.
Homocedasticidad
H0: los residuos tienen varianzas cosntantes
H1: Los residuos no tienen varianzas constantes
bartlett.test(ml1$residuals ~ Tapaporos)
##
## Bartlett test of homogeneity of variances
##
## data: ml1$residuals by Tapaporos
## Bartlett's K-squared = 0.50133, df = 2, p-value = 0.7783
bartlett.test(ml1$residuals ~ Metodo)
##
## Bartlett test of homogeneity of variances
##
## data: ml1$residuals by Metodo
## Bartlett's K-squared = 0.11221, df = 1, p-value = 0.7376
Interpretación
A un nivel de significancia del 5% o cualquier nivel de significancia no se rechaza H0 y
los residuos tienen varianzas cosntantes.
Independencia
H0: Los residuos estan incorrelados
H1: Los residuos no estan incorrelados
dwtest(ml1$residuals ~ Tapaporos + Metodo)
##
## Durbin-Watson test
##
## data: ml1$residuals ~ Tapaporos + Metodo
## DW = 2.7106, p-value = 0.8284
## alternative hypothesis: true autocorrelation is greater than 0
plot(1:length(ml1$residuals) , ml1$residuals)
Interpretación
Graficamente y por medio del test se comprueba que los residuos estan incorrelados
f) Obtenga el anova desglosado. Comente lo obtenido
Tapaporos <- rep(c(-1, 0, 1), each = 3, 2)
Metodo <- rep(c(-1, 1), each = 9)
fuerza <- c(4, 4.5, 4.3,
5.6, 4.9, 5.4,
3.8, 3.7, 4,
5.4, 4.9, 5.6,
5.8, 6.1, 6.3,
5.5, 5, 5)
Interpretación
El anova desglosado confirma lo obtenido en la grafica de efectos principales del factor
Tapaporos a un nivel de significnacia del 5% y en general a cualquier nivel de
significancia, la curvatura es altamente significativa, existe una clara curvatura que
tiene efecto dobre la variable respuesta y por lo contrario el factor Metodo al tener solo
dos niveles solo posee un linealidad exacta por lo este factor esta activo linealmente.