Wie mache ich die Anpassung von Zeichnungstolerenz

wenn die Qualität des Prozesses schlecht ist? Die vorgegebene UT ist 50 und OT ist 55. Ich habe für 100 Messwerten gemessen. Danach habe ich die Cp und Cpk berechnet. Die bekommende Werte sind kleiner als 1,33; deshalb kann eine Aussage gemacht werden, dass das Prozess schlecht ist. Der Prozessmittelwert ist 53,6 HRC.
Es gibt mehr als 10 Messwerten, die außerhalb dem Toleranz liegen. Also soll ich dann temporär eine Anpassung von Toleranzen basiert auf die Fähigkeitskennwerte. Wie mache ich das?

Viele Dank

Hallo mi3raw,

es wird sicherlich einen Grund geben, daß der Toleranzbereich zwischen 50 und 55 liegen soll, diesbezüglich müßtest Du mal mit der Entwicklung und Planung sprechen.
Die 10 ‚Ausreisser‘ würde ich mal etwas näher betrachten. Könnten es Meßfehler sein? Oder gibt es einen Grund für die Abweichungen? Auch hier können die Wissensträger wertvolle Antworten liefern, die zu Verbesserungen führen.

Im Moment ist der Prozess weder fähig noch beherrscht, aber das läßt sich ändern. Im Übrigen ist Cp ≥ 1,33 eigentlich schon etwas veraltet, es bedeutet, daß 3σ im Toleranzbereich liegen müssen. Heute werden oftmals 6σ gefordert (daher der Name ‚six sigma‘), was einem Cp-Wert von 2,00 entspricht.

Die Prozeßlage (Mittelwert) läßt sich relativ einfach einstellen, bzgl der Streuung müßtest Du wohl einen etwas größeren Aufwand betreiben, diese läßt sich nicht so ohne Weiteres beeinflussen. Das könnte ein separates Projekt werden.

Im ersten Schritt würde ich aber erstmal bei der Entwicklung/Planung hinterfragen, welche Auswirkungen denn ein Unterschreiten bzw Überschreiten von Toleranzgrenzen hat. Danach richten sich dann alle weiteren Maßnahmen. Parallel dazu auch die Ursache der 10 Ausreisser analysieren.

Sollte das alles nicht nicht fruchten müßtest Du vielleicht ein six sigma Projekt starten.

Gruß, Steff

Hallo Herr Steff,

viele Dank für Ihre Antwort. Ich mache eigentlich ein Projekt für meine Studium unter das Thema ‚Erfassung Messwerten‘ wobei ich die Prozesssicherheit des Prozesses darstellen muss. Deshalb habe ich die Cp- und Cpk-Wert berechnet, um die Beherrschung und Fähigkeit des Prozess zu wissen. Die nächste Schritt ist Anpassung von Zeichnungstoleranzen. Weil es mehr Messwerten, die das Obere Toleranzgrenzen überschreiten. Deshalb kann ich ein Vorschlag machen, das die Toleranzbereich zu vergrößern?

Was muss ich beachten darauf?

Grüß,Mi3raw

Hallo mi3raw,

also mit der Anpassung von Zeichnungstoleranzen wäre ich vorsichtig. Beim Fußball rennt man ja auch nicht mit dem Tor dem Ball hinterher. Kläre doch erstmal mit dem Entwickler bzw dem Planer ab, welche Auswirkungen ein Wert ≥55 hat. Toleranzgrenzen werden üblicher Weise nicht nach Lust und Laune gesetzt, sondern haben einen Sinn. Und den sollte man kennen.

Sollte auch ein Wert von 56 oder 58 keinerlei Auswirkungen haben, dann kannst Du den Vorschlag machen, die Toleranzgrenzen zu erweitern. Aber nur dann! Dies können nur die Wissensträger beurteilen, also sprich mit ihnen.

Unternimm da bitte nichts im Alleingang, informiere Dich erst über den Sinn und Zweck der Toleranzgrenzen. Du kannst da größere Schäden verursachen.

Viel Erfolg beim Praktikum

Steff

Six Sigma und die Praxis
Hallöchen,

Im Moment ist der Prozess weder fähig noch beherrscht, aber das läßt sich ändern.

So weit so gut.
Allerdings sollte ein schlechter Cp gar nicht näher „als Solcher“ begutachtet werden, denn er zeigt eigentlich nur, dass der Prozess nicht im Sinne der Spezifikation „funktioniert“.
Wenn auf einer Hühnerfarm jedes 10. Küken ein Welpe ist, dann muss man nicht über Varianzkontrolle diskutieren, sondern erst mal den Prozess als Solchen überdenken.

Im Übrigen ist Cp ≥ 1,33 eigentlich schon etwas veraltet, es bedeutet, daß 3σ im Toleranzbereich liegen müssen. Heute werden oftmals 6σ gefordert (daher der Name ‚six sigma‘), was einem Cp-Wert von 2,00 entspricht.

Laut persönlicher Erfahrung halte ich das für Unsinn.
Das mag in der industriellen Fertigung bei Massenproduktion gelten.

Im transaktionalen Umfeld ist man meist schon mit Cp>1 ziemlich gut.
Insbesondere bei Prozessen, die eine menschliche Komponente (jedweder Art) haben, sind Sigma-Werte über 3 nahezu utopisch.
Man sollte sich nur mal vor Augen führen, dass ein Mediziner einem Patienten bei 2,5 Sigma Diagnosequalität bereits die Notwendigkeit einer Herz-Transplantation attestiert…

Da im Normalfall eine Messsystem-Analyse bei 0,95% Messqualität durchgeführt wird, kann man mit der zugrunde liegenden MSA gar keine Prozessqualität > 3 Sigma mehr kontrollieren, da die Messungenauigkeit größer ist als die vorgebliche Prozessqualität.

Und Mess-Systeme mit >99% Genauigkeit sind schon extrem aufwändig zu konstruieren.
In der Softwareentwicklung zum Beispiel sind Messysteme mit > 90% Genauigkeit schon teurer als das zugrundeliegende Produkt.

Ich bezweifle, dass es in irgend einem Unternehmen dieser Welt, welches vorgibt mit Six Sigma zu arbeiten, ein Messsystem mit >99,999% Genauigkeit gibt.
Und selbst das wäre noch viel zu ungenau, um Cp >2 noch kontrollieren zu können.

„Six Sigma“ ist eher ein erstrebenswertes Ideal, in dem Prozesse quasi vollständig unter Kontrolle sind und die Kosten bedingt durch Prozessfehler oder mangelhafte Ergebnisse quasi nicht mehr quantifizierbar sind.

In der Praxis hört man jedoch dort mit der Optimierung auf, wo die Kosten für die Kontrolle größer werden als die Kosten schlechter Qualität.
Alles Andere ist unwirtschaftlich und auch nicht mehr im Sinne von Six Sigma („Copy the spirit, not the form!“)

Die Prozeßlage (Mittelwert) läßt sich relativ einfach einstellen, bzgl der Streuung müßtest Du wohl einen etwas größeren Aufwand betreiben, diese läßt sich nicht so ohne Weiteres beeinflussen. Das könnte ein separates Projekt

werden.
Das Blöde ist, dass der Urpsprungs-Fragesteller uns nichts, aber auch gar nichts, über die Daten gesagt hat, was uns helfen würde, die Frage sinnvoll zu beantworten.

Als Erstes Mal ist es nicht wirklich sinnvoll, von einer Cp zu sprechen, solange die Verteilung nicht bekannt ist.
Ich würde schätzen, dass gar keine Normalverteilung vorliegt, sondern eine n-modale Verteilung oder Ähnliches, so dass zuerst einmal die verschiedenen Modi herausgearbeitet werden müssten.

Ebenso wissen wir nicht, ob bei der vorgeblichen Verteilung die Stichprobengröße überhaupt im Sinne der notwendigen Genauigkeit hinreichend ist, um überhaupt eine fundierte Aussage über die Prozessfähigkeit treffen zu können.

Wir wissen auch nicht, ob das Problem im Prozess oder im Mess-System liegt, denn es gab scheinbar keine MSA.

Und so weiter.

Bevor ich hier irgendwas am Prozess tun würde, würde ich als allererstes Mal diese Dinge abklopfen.
In viel zu vielen Unternehmen entsteht jeden Tag viel zu viel Schaden durch Möchtegern-Prozessoptimierer, denen man ein Diagramm vor die Nase legt und die dann loslaufen und kostenträchtige Änderungen umsetzen, ohne nach dem „Warum“ zu fragen.
Genau an dieser Stelle greift nämlich Six Sigma mit dem DMAIC rein.
Zuerst mal brauchen wir das Define, dann die Mess-System-Konstruktion und dessen Analyse, dann erst kommt die eigentliche Datenanalyse - und erst danach die Verbesserungsphase.

Wenn wir weder die Definition noch das Mess-System verstanden haben: „back to the drawing board“.

Im ersten Schritt würde ich aber erstmal bei der Entwicklung/Planung hinterfragen, welche Auswirkungen denn ein Unterschreiten bzw Überschreiten von Toleranzgrenzen hat.

„Cost of Poor Quality“ ist ganz nett zu wissen, denn ohne signifikanten Impact kein Verbesserungs-Projekt.

Aber für die eigentliche Maßnahme ist das nicht so wichtig, weil dies eine Business-Frage ist. Für die Maßnahme ist als allererstes wichtig, ob wir dem Mess-System und der daraus resultierenden Messung überhaupt trauen können.
Ohne zuverlässige Daten zur Entwicklung zu rennen und ihnen zu sagen, dass etwas nicht funktioniert, hat schon so manchen Qualitätler sein Vertrauen gekostet.

Sollte das alles nicht nicht fruchten müßtest Du vielleicht ein six sigma Projekt starten.

Ich glaube nicht, dass man hier mit Kanonen auf Spatzen schießen muss. Meine Gefühl ist, dass es hier um „low hanging fruit“, möglicherweise sogar nur um einen methodischen Fehler in der Datenerhebung geht.
Ein formales Six Sigma Projekt würde sich dann spätestens in der Analysephase in Luft auflösen.

Gruß,
Michael

Oh weh!
Hallöchen,

Weil es mehr Messwerten, die das Obere Toleranzgrenzen überschreiten.

Das stärkt meine These (s. anderer Post), dass es entweder ein Problem mit dem Mess-System gibt oder gar keine Normalverteilung zugrunde liegt.

VORSICHT!!!
Wenn es keine Normalverteilung gibt, kann man CpK gar nicht so berechnen wie es die Lehrbücher sagen!
Man muss zuerst einmal das Ganze über Normaltransformation auf eine (mehrere?) Normalverteilung(en) überführen, bevor man diese Berechnung sinnvoll durchführen kann.

Als Praxis-Beispiel: Es macht keinen Sinn, eine Kapazitätsanalyyse von „Anzahl Busen der Bevölkerung“ durchzuführen. Zuerst muss man mal in „Männlein/Weiblein“ trennen, dann verschwindet ein Großteil der Varianz und jede Basisvariable produziert einen eigenen Mittelwert.

Deshalb kann ich ein Vorschlag machen, das die Toleranzbereich zu vergrößern?

Wieder aus dem Praxisbeispiel:
Natürlich kann man sagen: „Durchschnittsbevölkerung hat 1 Hoden und 1 Busen, Standardabweichung 1“ - aber wem ist mit dieser Aussage geholfen?
Was haben wir damit gewonnen? Klar, man kann nach wie vor Abweichungen identifizieren, aber eigentlich hat man nur das Messergebnis ad absurdum geführt, anstatt irgendwelche sinnvollen Aussagen zu prodzieren.

Genau in diesen Fettnapf möchtest Du gerade treten.
Du verwässerst die notwendige Prüfung anstatt darüber nachzudenken, warum die Ergebnisse nicht zur Anforderung passen.

Wie wäre es mit der Nachfrage an Dich selbst, ob Du nicht irgendwas bei der Messung oder Datenlage übersehen hast?

Noch mal ein Praxisbeispiel:
Dein Elektriker sagt „Laut Plan brauchen wir für die Starkstromkabel +/-10% Toleranz. Das hier hat aber die gesetzlich vorgeschriebenen Grenzwerte um 22% überschritten. Wollen Sie das weiter benutzen?“ - was wäre Deine erste Frage?

Was muss ich beachten darauf?

Zuerst eigene Fehler ausmerzen und Hintergründe verstehen, bevor man irgendwelche Vorschläge macht, die Andere betreffen.
Und als Qualitätler ist das LETZTE, was man tut, dem Anforderer zu erklären, er möge bitte seine Anforderungen runterschrauben.
Das tut man exakt an der Stelle, wo man hieb- und stichfest beweisen kann, dass die gestellten Anforderungen nicht mit realistischem Aufwand umgesetzt werden können.

Gruß,
Michael

Hallo Michael,

ich gehe mal davon aus, daß mi3raw einen Verteilungscheck gemacht hat, schließlich ist das das Erste, was man bei statistischen Auswertungen macht.

Ansonsten ist über den Prozess selbst leider recht wenig bekannt, insofern läßt sich dazu nichts Näheres sagen. Bei den Meßwerten fehlt z.B. schon mal die Einheit, es sind bisher nur UT und OT (50-55) bekannt und daß von 100 Meßwerten 10 aus dem Bereich raus fallen. 10% ist eine Menge!

Deine Ausführungen kann ich nachvollziehen, glaube aber kaum, daß mi3raw eine Grundsatzdebatte über Fähigkeitsuntersuchungen anstrebt. Ich gehe davon aus, daß er alle notwendigen Hintergrundkenntnisse hat und hier nur noch eine Detailfrage klären möchte.

Gruß, Steff

Im Prinzip ja aber…
Hallöchen Steff,

ich gehe mal davon aus, daß mi3raw einen Verteilungscheck gemacht hat, schließlich ist das das Erste, was man bei statistischen Auswertungen macht.

Mir drängt sich halt der Verdacht auf, dass das nicht geschehen ist.

Ansonsten ist über den Prozess selbst leider recht wenig bekannt, insofern läßt sich dazu nichts Näheres sagen.
Bei den Meßwerten fehlt z.B. schon mal die Einheit, es sind bisher nur UT und OT (50-55) bekannt und daß von 100 Meßwerten 10 aus dem Bereich raus fallen. 10% ist eine Menge!

Eben drum habe ich den Verdacht, dass eine Verteilungsprüfung nicht erfolgt ist: Bei den üblichen 5% Fehlertoleranz schlägt jeder Verteilungscheck für unimodale Verteilungen fehl wenn 10% der Daten komplett aus dem Rahmen fallen, der Rest jedoch der angenommenen Verteilung zu entsprechen scheint.

Und das wird entweder darauf zurück zu führen sein, dass die Stichprobe aus irgendwelchen Gründen nicht repräsentativ ist - oder die angenommene Verteilung nicht der wahren Verteilung entspricht.

Deine Ausführungen kann ich nachvollziehen, glaube aber kaum, daß mi3raw eine Grundsatzdebatte über Fähigkeitsuntersuchungen anstrebt. Ich gehe davon aus, daß er alle notwendigen Hintergrundkenntnisse hat und hier nur noch eine Detailfrage klären möchte.

Leider läuft es doch in der Praxis darauf hinaus: wenn 10% der Messdaten ganz grob nicht der Sollverteilung entsprechen, wurde mit nahezu an Sicherheit grenzender Wahrscheinlichkeit von irgend jemandem etwas Wichtiges, Grundsätzliches übersehen.

Es sei denn, es gibt ein massives Problem mit dem zugrundeliegenden Prozess, was dann aber keinesfalls dadurch lösbar ist, dass man einfach die Messgenauigkeit reduziert.

Nur darum reite ich so darauf rum, dass der Fragestellende in der Rolle des Qualitätsmanagers definitiv ausschließen muss, dass er selbst im Verfahren einen Fehler hat, bevor er zu den Fachseiten rennt.

Gruß, Steff

Und gruß zurück,
Michael

Hallo Michael,

Du bringst mich noch ganz durcheinander, gestehe ich lachend. Eben war ich der Meinung, daß man es mit einer Normalverteilung nicht hin bekommt, einen Mittelwert von 53,6 zu haben und gleichzeitig liegen 10% der Meßwerte oberhalb des OT von 55.

Doch, geht: Verteilung

Gruß, Steff

Guten Tag,

viele Dank. ich habe etwas eigentlich verstanden. Das macht Sinn, dass ich keine Toleranz einfach vergrößern. Aber haben Sie früher über Ausreißer gesagt? Wie stelle ich dar? Muss ich vielleicht Box-Plot erstellen? Also ich habe eigentlich die Oberflächenhärte einer Welle gemessen. Die vorgegebene OT is 55 HRC und UT ist 50 HRC. Weil das Prozess schlecht ist, muss die Prüfschärfe gesteigert wird oder? Ich werde dann die Ursache für die nicht stabile Prozesse auflisten und danach mit die verantwortliche Person beim Unternehmen besprechen. Ist das in Ordnung?

Viele Dank

Hallo zurück,

viele Dank. ich habe etwas eigentlich verstanden. Das macht Sinn, dass ich keine Toleranz einfach vergrößern. Aber haben Sie früher über Ausreißer gesagt? Wie stelle ich dar? Muss ich vielleicht Box-Plot erstellen?

„Box-and-Whisker“ Plot wäre vermutlich die geeignete Darstellung.
Wenn wir aber eine Darstellung der gemessenen Daten als ganz einfachen Bar-Chart (mit Balken-Intervallen etwa 0,2) sehen könnten, könnten wir hier vermutlich deutlich besser diskutieren worum es geht. :wink:

Also ich habe eigentlich die Oberflächenhärte einer Welle gemessen. Die vorgegebene OT is 55 HRC und UT ist 50 HRC. Weil das Prozess schlecht ist, muss die Prüfschärfe gesteigert wird oder?

Nein, nein, so ist das auch nicht korrekt.
Die Prüfgenauigkeit muss selbst validiert sein.
Ob sie für die Problemstellung angemessen ist, kann man nur sagen, mit welcher Genauigkeit tatsächlich die Messung erfolgt.
Kann man systematische Messfehler ausschließen und ist die Messtoleranz ohnehin signifikant kleiner als die Fehlertoleranz des Prozesses, so ist das vorhandene Prüfverfahren geeignet.

Meine Aussage zielte lediglich darauf hin, dass ohne Wissen über das Messverfahren gar nicht möglich ist, die gemessenen Daten zur Beurteilung des Prozesses zu nutzen - also die Aussage „Der Prozess ist schlecht“ nur bedingt glaubwürdig ist.

Ich werde dann die Ursache für die nicht stabile Prozesse auflisten und danach mit die verantwortliche Person beim Unternehmen besprechen.

Wenn die Ursachen bekannt sind, ist das ein guter Weg.
Nur: Woher sind sie bekannt?

Gruß,
Michael

Verteilung
Ja,
Du hast völlig Recht.
Auch ich stand irgendwie auf dem Schlauch. Ich hatte einen Knoten im Hirn und eine Verdichtung mit 10% Messwerten jenseits der OT im Kopf :frowning:

Allerdings wäre es mit Sicherheit nicht verkehrt, ein Bild der Messwerte zu sehen, um zu beurteilen, ob das Ganze tatsächlich statistisch „normal“ sein kann.

Gruß,
Michael

von was genau reden wir hier?
hallo,

von was für einem mass/ welcher technik reden wir hier?
metallbau? spritzguss? halbleiterei? …?
endmass? wicklungsdicke? kurvenradius?..?
beschreib doch mal kurz die technischen umstände.

antwort gefunden
soso,
es geht um die härte einer oberfläche.
damit gehört die sache eigentlich ins witzebrett verschoben.

die härte einer oberfläche einer statistischen prozessregelung unterziehen zu wollen mit cpk > 1 zeugt von genereller unkenntnis aller beteiligten.

der tip mit der nachträglichen toleranzanpassung ist hier goldrichtig.
die frage ist nur wer hier was verantwortet.
ist aber auch egal, denn im sinne der statistischen prozessregelung bekommt ihr das sowieso nicht hin.

… mehr auf http://w-w-w.ms/a45e3t

Wie Recht Du hast :smile:
Hihi, ja genau.

es geht um die härte einer oberfläche.

Genau. Somit ist es nämlich gar keine Frage nach statistischer Prozesskontrolle, sondern eine Design-Frage.
Das wurde aber aus dem Ursprungspost überhaupt nicht klar.

damit gehört die sache eigentlich ins witzebrett verschoben.
die härte einer oberfläche einer statistischen prozessregelung unterziehen zu wollen mit cpk > 1 zeugt von genereller unkenntnis aller beteiligten.

Ja. Denn bei Material dokumentiert man in erster Linie die bestehenden Eigenschaften, um zu prüfen, ob das fertiggestellte Produkt im Rahmen der bestehenden Abweichungen funktionsfähig sein kann.

der tip mit der nachträglichen toleranzanpassung ist hier goldrichtig.

Das wäre tatsächlich der erste Schritt.
Wir haben eine Teilezeichnung, in der die Zeichnungsgrößen erst mal angepasst werden. Danach kann eine Validierung erfolgen, ob die Konstruktion in seiner Beschaffenheit den Anforderungen genügt.
Erst im Nachgang würde man die „Schwachstellen“ eingrenzen und prüfen, an welchen Stellen höherqualitative Komponenten notwendig sind.
Und auch das nur, wenn die Konstruktion den Anforderungen nicht entspricht.

die frage ist nur wer hier was verantwortet.

Höchstwahrscheinlich verantwortet der Fragesteller nur die Aufgabe, auf einem Design die real existierenden Zeichnungsgrößen einzutragen.
Ob das Ganze am Schluß hinhaut, wird wohl ein übergeordneter Ingenieur prüfen.

ist aber auch egal, denn im sinne der statistischen prozessregelung bekommt ihr das sowieso nicht hin.

Denn es hat überhaupt nichts mit statistischer Prozesskontrolle zu tun.
Es ist einfach eine Standard-Dokumentations-Aufgabe im Designprozess :smile:

Man muss in der bestehenden Aufgabe die folgenden Werte erheben und an geeigneter Stelle dokumentieren:

  • Mittelwert (soweit sinnvoll)
  • Untere und Obere Toleranzgrenze (soweit notwendig)
  • ALTERNATIV: Den anzuwendenden Standard
  • Zugrundeliegende Verteilung
  • CpK

Für die Aufgabe selbst geht es nicht um die zugrunde liegende Prozessfähigkeit - und ob die CpK nun „gut“ oder „schlecht“ ist, hat im Sinne der Aufgabenstellung überhaupt keine Bedeutung.
Selbst CpK=0,1 bei einer Komponente ist solange unproblematisch, wie das fertige Design im Rahmen der Spezifikation liegt.

Das wird aber an geeigneter, nachgelagerter Stelle entschieden.

Gruß,
Michael

Hallo pm,

die gesamte Aufgabe besteht aus drei Punkten:

  1. Darstellung der Prozesssicherheit
  2. Dynamisieren der Prüfschärfe
  3. Anpassung der Zeichnungstoleranzen

Ich bin kein Fachmann, was die Oberflächenhärtung anbelangt, weiß nur, daß es u.a. SPC-Programme dafür gibt.

Zur Lösung der einzelnen Punkte:
(1) „Darstellung der Prozesssicherheit“
hier hat mi3raw die bereits dargelegte PFU gemacht und den Cp-Wert ermittelt.

(2) „Dynamisieren der Prüfschärfe“
Üblicher Weise hat man aus der PFU Kenntnis über die durchschnittliche Anzahl fehlerhafter Einheiten in der Grundgesamtheit. Mit der Binomialverteilung läßt sich daraus dann die zu erwartenden fehlerhaften Einheiten in der Stichprobe ermitteln. Die Dynamisierung ergibt sich dann z.B. mit dem Skip-lot-Verfahren.
Immer vorausgesetzt, daß SPC möglich und sinnvoll ist. Dazu muß man den Prozeß kennen.

(3) „Anpassung der Zeichnungstoleranzen“
Lösung noch offen, daher die Anfrage von mi3rw.

Soweit der derzeitige Stand. Über den Prozeß selbst ist nichts bekannt. Man weiss also nicht, ob die Härtung z.B. durch Wärmebehandlung oder Nitrierung erfolgt. Auch müßte man sich in der Oberflächenhärtung auskennen, um zu beurteilen, ob die Anwendung von statistischen Methoden überhaupt sinnvoll ist.

Soweit ein paar Ergänzungen zu der Anfrage von mi3raw.

Gruß Steff

Hallo zusammen,

ich habe mit dieses Thema etwas verstanden. Die Aufgabe ist eigentlich ‚Erfassen von Messwerten‘, wobei ich die Prüfdaten von einer Welle gemacht habe. Mit diese Welle,habe ich die Prozessfähigkeitsuntersuchung durchgeführt, um die Prozesssicherheit zu stellen. Dabei habe ich mit Histogramm, Cp und Cpk berücksichtigt. Ist das in Ordnung? Oder habe ich etwas vergessen?

Was ich noch nicht so klar ist die Anpassen von Zeichnungstoleranzen. Das ist klar, dass ich nicht die Toleranzen einfach ändern kann. Aber vielleicht kann ich die Analyse über den Prozess machen? Wie kann ich die Qualität des Prozesses mit diese Anpassen von Toleranzen zusammen verbinden? Wenn zum Beispiel ein Prozess sich verschlechtert hat, wie sage ich über die Toleranzen?

Note:ich mache nur die Analyse/Auswertung.

Ich bedanke mich bei Ihnen im Voraus.

Viele Grüße,
mi3raw

Unser Freund, der Kontext
Hallöchen,

sorry erst mal wenn ich nicht auf Deine Mailanfrage geantwortet habe, das kann ich momentan aus organisatorischen Gründen nicht ;/

ich habe mit dieses Thema etwas verstanden. Die Aufgabe ist eigentlich ‚Erfassen von Messwerten‘, wobei ich die Prüfdaten von einer Welle gemacht habe.

So, wie sich die Mail angehört hat, gehe ich halt davon aus, dass es eigentlich nicht um statistische Prozessoptimierung geht, sondern im weiteren Sinne um ein Design.
Aber auch da fehlt mir leider noch etwas Kontext, deswegen arbeiten wir hier immer noch mit Annahmen.

Mit diese Welle,habe ich die Prozessfähigkeitsuntersuchung durchgeführt, um die Prozesssicherheit zu stellen. Dabei habe ich mit Histogramm, Cp und Cpk berücksichtigt. Ist das in Ordnung? Oder habe ich etwas vergessen?

Hast Du einen Hypothesentest auf Normalverteilung (oder welche Verteilung auch immer Du zugrunde legst) gemacht?
Hast Du einen Hypothesentest gemacht, ob Du tatsächlich anhand der vorliegen Daten mit hinreichender Sicherheit ausschließen kannst, ob tatsächlich andere Parameter (Varianz, Mittelwert) zugrunde liegen als in der Zeichnung derzeit registriert sind?
Hast Du einen Hypothesentest gemacht, dass die von Dir angenommene Verteilung sich bei einer Wiederholung der Prüfung bestätigen müsste?

Du darfst nämlich die Zeichnungsgrößen nur dann anpassen, wenn Du mit hinreichender Sicherheit ausschließen kannst, dass die derzeitigen Werte schlechter als die neuen sind.

Was ich noch nicht so klar ist die Anpassen von Zeichnungstoleranzen. Das ist klar, dass ich nicht die Toleranzen einfach ändern kann. Aber vielleicht kann ich die Analyse über den Prozess machen?

Ich schränke hiermit meine Aaussage ein, die besagte: „man passt Toleranzgrenzen nicht ohne Abstimmung mit der Fachseite an“.

Beim Design ist es tatsächlich üblich, dass man nach der statistischen Analyse und entsprechenden Ergebnissen (die natürlich belegt sein wollen) die Zeichnungsgrößen einfach anpasst.
Schließlich muss in erster Linie geprüft werden, ob das Produkt unter Nutzung der gegebenen Komponenten den Anforderungen entspricht - und erst danach, ob eine Anpassung des Herstellungsprozesses notwendig ist, um dies zu gewährleisten.

Wie kann ich die Qualität des Prozesses mit diese Anpassen von Toleranzen zusammen verbinden? Wenn zum Beispiel ein Prozess sich verschlechtert hat, wie sage ich über die Toleranzen?

Du mußt hier das „big picture“ sehen.
Es gibt vermutlich mehrere Prozesse. Zum ersten, die Herstellung des Gesamtprodukts - bestehend aus Komponenten, von denen deine Welle wohl nur eine sein dürfte.
Produziert dieser Prozess als Ganzes Ergebnisse im Rahmen der Anforderungen, ist keinerlei Prozessanpassung notwendig.
Wenn dieser Prozess nicht das gewünschte Ergebnis produziert, sucht man nach der effektivsten Stellschraube. Diese kann, aber muss nicht sein die Komponente mit der schlechtesten Prozessfähigkeit.

Das ganze Themengebiet ist leider dermaßen komplex, dass man schon wirklich viel mehr Hintergrundinformationen bräuchte, um hier eine nicht fragwürdige Antwort zu geben.

Denn bei falscher Interpretation der Sachlage wird der best-gemeinteste Rat plötzlich gefährlich.
Es gibt keine universelle Wahrheit in der Datenanalyse - Daten müssen immer im Gesamt-Kontext verstanden werden.
Entsprechend gibt es auch kein universelles Verfahren, um mit den Ergebnissen umzugehen.
Deswegen, je mehr Allgemeinwissen wir hier außen rum bekommen, desto leichter können wir hier brauchbare Antworten geben.

Gruß,
Michael

1 Like

Hallo Michael,

sehr richtig, hier bedarf es nicht nur der statistischen Kenntnisse, hier ist auch Fachwissen gefragt! Nämlich das know-how über den Härtungsprozess selbst.

Gruß Steff