Six Sigma und die Praxis
Hallöchen,
Im Moment ist der Prozess weder fähig noch beherrscht, aber das läßt sich ändern.
So weit so gut.
Allerdings sollte ein schlechter Cp gar nicht näher „als Solcher“ begutachtet werden, denn er zeigt eigentlich nur, dass der Prozess nicht im Sinne der Spezifikation „funktioniert“.
Wenn auf einer Hühnerfarm jedes 10. Küken ein Welpe ist, dann muss man nicht über Varianzkontrolle diskutieren, sondern erst mal den Prozess als Solchen überdenken.
Im Übrigen ist Cp ≥ 1,33 eigentlich schon etwas veraltet, es bedeutet, daß 3σ im Toleranzbereich liegen müssen. Heute werden oftmals 6σ gefordert (daher der Name ‚six sigma‘), was einem Cp-Wert von 2,00 entspricht.
Laut persönlicher Erfahrung halte ich das für Unsinn.
Das mag in der industriellen Fertigung bei Massenproduktion gelten.
Im transaktionalen Umfeld ist man meist schon mit Cp>1 ziemlich gut.
Insbesondere bei Prozessen, die eine menschliche Komponente (jedweder Art) haben, sind Sigma-Werte über 3 nahezu utopisch.
Man sollte sich nur mal vor Augen führen, dass ein Mediziner einem Patienten bei 2,5 Sigma Diagnosequalität bereits die Notwendigkeit einer Herz-Transplantation attestiert…
Da im Normalfall eine Messsystem-Analyse bei 0,95% Messqualität durchgeführt wird, kann man mit der zugrunde liegenden MSA gar keine Prozessqualität > 3 Sigma mehr kontrollieren, da die Messungenauigkeit größer ist als die vorgebliche Prozessqualität.
Und Mess-Systeme mit >99% Genauigkeit sind schon extrem aufwändig zu konstruieren.
In der Softwareentwicklung zum Beispiel sind Messysteme mit > 90% Genauigkeit schon teurer als das zugrundeliegende Produkt.
Ich bezweifle, dass es in irgend einem Unternehmen dieser Welt, welches vorgibt mit Six Sigma zu arbeiten, ein Messsystem mit >99,999% Genauigkeit gibt.
Und selbst das wäre noch viel zu ungenau, um Cp >2 noch kontrollieren zu können.
„Six Sigma“ ist eher ein erstrebenswertes Ideal, in dem Prozesse quasi vollständig unter Kontrolle sind und die Kosten bedingt durch Prozessfehler oder mangelhafte Ergebnisse quasi nicht mehr quantifizierbar sind.
In der Praxis hört man jedoch dort mit der Optimierung auf, wo die Kosten für die Kontrolle größer werden als die Kosten schlechter Qualität.
Alles Andere ist unwirtschaftlich und auch nicht mehr im Sinne von Six Sigma („Copy the spirit, not the form!“)
Die Prozeßlage (Mittelwert) läßt sich relativ einfach einstellen, bzgl der Streuung müßtest Du wohl einen etwas größeren Aufwand betreiben, diese läßt sich nicht so ohne Weiteres beeinflussen. Das könnte ein separates Projekt
werden.
Das Blöde ist, dass der Urpsprungs-Fragesteller uns nichts, aber auch gar nichts, über die Daten gesagt hat, was uns helfen würde, die Frage sinnvoll zu beantworten.
Als Erstes Mal ist es nicht wirklich sinnvoll, von einer Cp zu sprechen, solange die Verteilung nicht bekannt ist.
Ich würde schätzen, dass gar keine Normalverteilung vorliegt, sondern eine n-modale Verteilung oder Ähnliches, so dass zuerst einmal die verschiedenen Modi herausgearbeitet werden müssten.
Ebenso wissen wir nicht, ob bei der vorgeblichen Verteilung die Stichprobengröße überhaupt im Sinne der notwendigen Genauigkeit hinreichend ist, um überhaupt eine fundierte Aussage über die Prozessfähigkeit treffen zu können.
Wir wissen auch nicht, ob das Problem im Prozess oder im Mess-System liegt, denn es gab scheinbar keine MSA.
Und so weiter.
Bevor ich hier irgendwas am Prozess tun würde, würde ich als allererstes Mal diese Dinge abklopfen.
In viel zu vielen Unternehmen entsteht jeden Tag viel zu viel Schaden durch Möchtegern-Prozessoptimierer, denen man ein Diagramm vor die Nase legt und die dann loslaufen und kostenträchtige Änderungen umsetzen, ohne nach dem „Warum“ zu fragen.
Genau an dieser Stelle greift nämlich Six Sigma mit dem DMAIC rein.
Zuerst mal brauchen wir das Define, dann die Mess-System-Konstruktion und dessen Analyse, dann erst kommt die eigentliche Datenanalyse - und erst danach die Verbesserungsphase.
Wenn wir weder die Definition noch das Mess-System verstanden haben: „back to the drawing board“.
Im ersten Schritt würde ich aber erstmal bei der Entwicklung/Planung hinterfragen, welche Auswirkungen denn ein Unterschreiten bzw Überschreiten von Toleranzgrenzen hat.
„Cost of Poor Quality“ ist ganz nett zu wissen, denn ohne signifikanten Impact kein Verbesserungs-Projekt.
Aber für die eigentliche Maßnahme ist das nicht so wichtig, weil dies eine Business-Frage ist. Für die Maßnahme ist als allererstes wichtig, ob wir dem Mess-System und der daraus resultierenden Messung überhaupt trauen können.
Ohne zuverlässige Daten zur Entwicklung zu rennen und ihnen zu sagen, dass etwas nicht funktioniert, hat schon so manchen Qualitätler sein Vertrauen gekostet.
Sollte das alles nicht nicht fruchten müßtest Du vielleicht ein six sigma Projekt starten.
Ich glaube nicht, dass man hier mit Kanonen auf Spatzen schießen muss. Meine Gefühl ist, dass es hier um „low hanging fruit“, möglicherweise sogar nur um einen methodischen Fehler in der Datenerhebung geht.
Ein formales Six Sigma Projekt würde sich dann spätestens in der Analysephase in Luft auflösen.
Gruß,
Michael