Analítico y Enumerativo (qué palabras)

La calidad está relacionada con los procesos. Lo afirma incluso la norma 9001. Un proceso es una serie de acciones o pasos tomados para lograr un fin particular. No importa si el proceso del que hablamos es el manejo de facturas, los clientes en un banco, la fabricación o ensamblaje de piezas, las reclamaciones es una empresa de seguros o el tránsito de los enfermos en un hospital. Hay miles, millones de ejemplos. Un proceso implica movimiento y acción de una manera secuencial.

Las empresas están siempre preocupadas por la calidad. De hecho, todas las empresas venden calidad, sin paliativos: calidad y sostenibilidad. Son los paradigmas actuales. Y todos los profesionales de la calidad que trabajan en una empresa están preocupados por mejorar los procesos. Al mejorar los procesos, se obtienen menos desperdicios, menos costes y clientes más felices.

La imagen de arriba (una preciosidad de lago en la región croata de Plitvice) muestra dos estados opuestos: un estado dinámico y cambiante, y un estado estático. El lago es estático, inmutable. Podríamos tomar medidas de temperatura en el lago a diferentes profundidades y regresar mañana para encontrar la diferencia. Podríamos tomar muestras del agua del lago para compararlas con otros lagos en una fecha posterior cuando viajamos a ellos.

Por el contrario, la corriente de agua que cae al lago es dinámica. Cambia de segundo a segundo. Es una combinación de innumerables procesos caóticos y habría que resolver miles de ecuaciones Navier-Stokes para describir su estado. Podríamos medir el caudal en distintas partes de la corriente y siempre encontraríamos cambios constantes.

El flujo de corriente representa los negocios cambiantes y dinámicos con los que todos estamos familiarizados y preocupados por mejorar. El, aquí habitual, W. Edwards Deming se refirió a los métodos para estudiar sistemas dinámicos como «analíticos«. Los sistemas estáticos, como el lago, se estudian con métodos «enumerativos«.

Los investigadores en lagos, los psicólogos y los demógrafos utilizan todos ellos métodos enumerativos.

El primer uso de tales métodos fue realizado por el escocés John Arbuthnot, médico y satírico que en 1710 demostró la existencia de Dios mediante inferencia estadística (según él, no era posible la suposición de que el sexo está distribuido entre la descendencia humana de una forma puramente casual; debe intervenir una providencia divina que controla las proporciones de los sexos).

Pierre-Simon, marqués de Laplace, el de la famosa transformada de Laplace, escribió en 1812 su Théorie Analytique des Probabilities, que estableció los fundamentos de la estadística. Dichas estadísticas se basan en la distribución normal, derivada por Carl Friedrich Gauss en 1809. Durante los siglos siguientes, otros autores como KB Wilson, George Box, David Cox, George Mood o David Mann idearon pruebas estadísticas o pruebas de hipótesis. Hay muchas estadísticas maravillosas e interesantes. Ninguna incluye el elemento tiempo. No están diseñadas para la mejora de procesos.

Si bien los métodos enumerativos demostraron ser muy potentes, no resultaban adecuados para situaciones dinámicas y analíticas. En 1944, Walter Shewhart hizo la brillante observación: «Las estadísticas clásicas comienzan con la suposición de que existe un universo estadístico, mientras que el control estadístico de procesos (SPC) comienza con la suposición de que no existe dicho universo estadístico«. Es decir, por decirlo con palabras más sencillas: mientras que las estadísticas enumerativas generalmente se basan en suposiciones sobre la distribución de datos (por lo común, la distribución normal o gaussiana), la predicción del comportamiento de los procesos no lo hace. Nunca podemos conocer la distribución de un proceso de cambio.

El descubrimiento de Shewhart fue que las estadísticas enumerativas clásicas no eran adecuadas para mejorar los procesos. Sobre esta base, creó el gráfico de control para el análisis analítico. Fue este importante hecho el que llevó al otro gran ilustre de esta bitácora, William Deming, a afirmar en 1986 que «se debe evitar los pasajes en los libros que hablan de intervalos de confianza y otras pruebas de importancia afines, porque tales cálculos no tienen aplicación en los problemas analíticos de la ciencia y la industria. Los análisis de varianza, la prueba t de Student, los intervalos de confianza y otras técnicas estadísticas que se enseñan en los libros son muy interesantes, pero también inapropiadas porque entierran la información contenida en el orden de producción. Un intervalo de confianza no tiene un significado operacional para la predicción, por lo tanto, no proporciona ningún grado de creencia en la planificación». Imagino que muchos Black Belts acaban de respirar aliviados…

Durante los 32 años transcurridos desde estas declaraciones esclarecedoras de Deming, el mensaje aún no se ha reflejado en la mayoría de la gente. Hoy en día, la mayoría de los cursos de mejora de procesos se centran en métodos enumerativos, es decir, en pruebas de hipótesis. Por ese motivo muchos autores afirman que la calidad ha retrocedido a los días anteriores a 1944. Por ello no me sorprenden las encuestas que reflejan que el 80 por ciento de los proyectos de mejora con Six Sigma fracasen (de entre todos los que valientemente admiten el fracaso).

La palabra clave de Deming para la mejora del proceso es la predicción. Las empresas desean poder estar seguras de que no solo se mejoran sus procesos, sino también de que seguirá siendo así en el futuro. Shewhart derivó sus gráficos de control basando sus conocimientos estadísticos a la economía. Los gráficos de control indican cuándo un proceso es predecible y cuándo es probable que existan y deban investigarse las causas especiales que alteran su estabilidad. Y lo más importante (grábeselo con fuego): un gráfico de control no es un gráfico de probabilidad. No da la probabilidad de que un proceso sea predecible o no. No depende de ninguna distribución de datos en particular, como lo hacen los métodos enumerativos.

Esta inquietud por los métodos enumerativos ha llevado a muchas personas a creer (falsamente) que los datos necesitan seguir la distribución normal a la hora de confeccionar o entender un gráfico de control. Echemos un vistazo a las siguientes distribuciones de datos.

No tenemos ni idea de qué procesos pueden producir estos datos, lógicamente. Pero la pregunta relevante es: ¿cuáles de los anteriores procesos se pueden representar mediante un gráfico de control, sin ningún tipo de manipulación previa? Es decir, ¿se puede trazar un gráfico de control sin necesidad de emplear un caro software estadístico que torture los datos hasta hacer que estos confiese?

La respuesta es: TODOS ELLOS.  No importa cómo sea el histograma o la distribución de datos. Los datos de cualquier distribución se pueden representar mediante un único gráfico de control, el XmR, como ya vimos en este otro apunte . Un buen gráfico XmR dibujado a mano, como hacía Shewhart, produce resultados tan buenos como los programas de software.

Es importante destacar que todos los gráficos de control contienen un promedio y un gráfico de rangos. Los leptocurtofóbicos (los que tienen pánico a la no normalidad) han de buscar el Prozac antes de mirar la distribución de rangos porque descubrirán que el comportamiento del proceso no se ve afectada por los promedios o los rangos de datos que no son normales.

Dejar un comentario

Tu dirección de correo electrónico no será publicada.

Al continuar utilizando nuestro sitio web, usted acepta el uso de cookies. Más información

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra POLÍTICA DE COOKIES, pinche el enlace para mayor información. Además puede consultar nuestro AVISO LEGAL y nuestra página de POLÍTICA DE PRIVACIDAD.

Cerrar