El dichoso desplazamiento 1,5

En otra entrada ya comenté que, para muchos, la metodología Six Sigma se ha beneficiado del efecto Hawthorne, al menos en parte, lo que significa que si se invierte suficiente dinero en ella (en cualquier metodología, realmente), han de esperarse al menos algunos buenos resultados a corto plazo.

No deja de ser preocupante para un Master Black Belt, como quien esto suscribe, que la Ford Motor Co. haya entrenado en los últimos años a más de 10.000 Six Sigma Black Belts y gastado cientos de millones de dólares en Six Sigma para, finalmente, lanzar al mercado un automóvil, el Ford Edge, con más de 70 problemas de calidad preocupantes y cientos de menor importancia. Más aún: Ritz-Carlton ha ganado dos veces el prestigioso Premio Malcolm Baldrige, siendo como es una empresa de servicios, , y su éxito no se debe a Six Sigma, sino a TQM (Gestión de la Calidad Total). En comparación, Home Depot, una compañía Six Sigma, concatena ganancias decrecientes y ha sido descrita como la que proporciona «el peor servicio de todos», según la NBC.

Una de las fases finales de Six Sigma son las lecciones aprendidas. ¿Podemos los Black Belt aprender del pasado?

El atractivo de Six Sigma fue evolucionar del «humo» de la mejora continua a una cuantificación específica de la calidad: los 3,4 defectos por millón de operaciones (dpmo). Este número 3.4 fue el palo y también la zanahoria para comparar procesos y empresas competidoras. Tan irresistible fue su atractivo que muchos se subieron al carro Six Sigma sin cuestionarse absolutamente nada, pese a que el enfoque basado solo en la reducción de defectos había sido criticado duramente por el gran Deming. De hecho, muchos Black Belts se consideran a sí mismos casi como doctores en estadística, pese a la frecuencia con que malinterpretan tanto las herramientas de cálculo como los resultados.

Puede que ese valor de solo 3,4 defectos por millón de operaciones parezca lo último en calidad. De hecho, para casi todas las empresas resulta inalcanzable, especialmente para las empresas de servicios: los humanos somos muy eficientes cuando cometemos 5 errores cada 1.000 operaciones, es decir, aproximadamente 5.000 dpmo. En España, las empresas de servicios representan el 74% según datos del Ministerio de Empleo y Seguridad Social de enero de 2018. Y el porcentaje es similar en cuanto a número de empleados. Por lo tanto, para la gran mayoría ese 3,4 dpmo no tiene sentido.

Convendría recordar que se produce un defecto cuando un producto no cumple con sus especificaciones. Hay una manera obvia de reducir el número de defectos: cambiando las especificaciones. Con una especificación más amplia hay menos defectos. Puede sonar estúpido, pero es exactamente lo que defendió Bill Smith, el fundador de Six Sigma. Para Deming, el enfoque de la calidad consistía en reducir la variación. Para Bill Smith cambiar la especificación «influye en la calidad del producto tanto como el control de la variación del proceso«. Vaya tela. ¿Puede un Black Belt estar de acuerdo con esta afirmación del padre del Six Sigma?

Supongamos que se quiere limpiar una alfombra de 10 metros cuadrados. En la siguiente figura se
representa la superficie sucia (el defecto) para cada nivel sigma:

Aparentemente, el objetivo de 3,4 ppm parece absolutamente desproporcionado y fuera del alcance de una empresa, sobre todo si es de servicios, pero conviene tener en cuenta dos aspectos, aparte del valor numérico:

  1. uno, la idoneidad del objetivo;
  2. y dos, si es alcanzable.

Los anteriores aspectos son ISO 9001 en estado puro. Si una empresa fabrica un producto compuesto por 100 componentes distintos con nivel 4σ, para que el elemento sea conforme deberán serlo sus 100 componentes, por lo que únicamente se fabricarán bien a la primera el 53.64%, lo cual está lejos de cualquier estándar competitivo y, por tanto, es necesario realizar una actividad de mejora para que los componentes se fabriquen mejor (con un nivel sigma mayor).

Es importante resaltar que este objetivo de 3,4 ppm se aplica a defectos en los procesos de fabricación, no a unidades finales. Y en relación con el segundo aspecto, las empresas pioneras en Seis Sigma demostraron que es posible, lo cual no es tan sorprendente porque en Six Sigma todas las herramientas van encaminadas a prevención y a incrementar el conocimiento sobre los procesos y las necesidades de los clientes. Otra cosa es que Ford lo hiciera tan rematadamente mal…

En otro apunte veremos cómo surge históricamente el «3,4» al que hemos dedicado bastante espacio. Ahora toca hablar del famoso «shift» o desplazamiento de 1,5σ de Six Sigma. Fue acuñado por Mikel Harris (el otro cofundador de Six Sigma) midiendo la altura de pilas de discos, algo que no tiene ninguna relación con los procesos. La justificó posteriormente de forma teórica basándose en trabajos sobre la asignación de tolerancias realizados por A. Bender y D. H. Evans.

A. Bender. “Bendarizing Tolerances – A simple Practical Probability Method of Handling Tolerances for
Limit.Stack-Ups”, Graphic Science, Diciembre de 1962.
D. H. Evans. “Statistical Tolerancing,: The State of the Art, Part III: Shift and Drifts.” Journal of Quality Technology,
Abril 1975.

Por las fechas de los trabajos no se puede decir que fueran excesivamente novedosos. Ambos recomendaban aplicar un coeficiente de 1,5 a la desviación típica del proceso calculada a corto plazo para tener en cuenta el efecto de los desplazamientos que pudiese tener la media. Por lo tanto, el famoso y tan cacareado 1,5 no debe entenderse como una fórmula exacta sino más bien como un coeficiente de seguridad que pone de manifiesto que los controles deben ser capaces de detectar derivas del proceso de 1.5σ. Parece muy fácil de decir, pero en la realidad no es tan sencillo: por ejemplo, la probabilidad de que un gráfico de medias con un tamaño de muestra de cinco unidades detecte esta deriva en la primera muestra es solamente de un 60%.

El gráfico siguiente muestra las (funestas) consecuencias del desplazamiento 1,5σ cuando no se entiende bien lo que se hace.

Fuente: Quality Digest, 5 Feb 2008

En 2003, Mikel Harry creó una nueva prueba completamente diferente, una suerte de «corrección» que acabó siendo denominada «compensación de media dinámica«. Ininteligible, ¿verdad?.

Intento de Mikel Harry en 2003 para justificar su nueva corrección de 1,5.

Mikel Harry tomó arbitrariamente la línea rosa en la probabilidad de 99% para encontrar el valor 1,5. En realidad, como ya dijimos en otro apunte, los gráficos de control no son gráficos de probabilidad y no se necesitaba la corrección.

Algunos de los fundamentos de Six Sigma pueden ser defectuosos. Mi defensa estriba en que se trata de una metodología que aplica el método científico a los procesos productivos que funciona realmente bien incluso si se prescinde del 3,4 dpmo y el 1,5σ. Además, en un 80 por ciento es casi idéntica a TQM. ¿Por qué entonces tantas empresas fracasan?

 

2 Comments

Responder a Francisco. Cancelar la respuesta

Tu dirección de correo electrónico no será publicada.

Al continuar utilizando nuestro sitio web, usted acepta el uso de cookies. Más información

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra POLÍTICA DE COOKIES, pinche el enlace para mayor información. Además puede consultar nuestro AVISO LEGAL y nuestra página de POLÍTICA DE PRIVACIDAD.

Cerrar