www.caq4-qualitätsmanagement.com Hier gehts zu caq4- Produkt-, Prozess-, Qualitätsmanagement, Phasenmodell der Produktentstehung, Qualitycheck, Risikomanagement        www.qualitätsmanagement-suchen.com
    ® Copyright 2010        War diese Website für Sie hilfreich?     Kontakt:   info.caq4@utanet.at


Prozessoptimierung

Methoden zur Prozessoptimierung

Prozessdimensionierung/ Prozessoptimierung

Ziel u. Zweck: Die Prozesse richtig auslegen und die Produkte an die Prozesse optimal anpassen. Festlegung (Spezifikation) der Prozesse, Methoden, Herstellverfahren und der Fertigungseinrichtungen. Das Ziel müssen beherrschte Prozesse sein.

Vergleiche auch
Prozessanalyse
PMP- Prozessanalyse

Die richtige Auslegung der Prozesse ist die zentrale Kernaufgaben dieser Bearbeitungsphase. Richtig dimensionierte und optimierte Prozesse lassen sich mit den Attributen "definiert, qualifiziert, fähig, robust, sicher, beherrscht" beschreiben SCHMELZER [6].

In diesem Abschnitt geht es um die Maßnahmen, die zu ergreifen sind, um beherrschte Prozesse zu erhalten, welche weitgehend fehlerfreie Produkte ermöglichen. Die Beurteilung, wie gut ein Prozess beherrscht wird, erfolgt mittels der Prozessfähigkeitskennwerte cp und cpk. Sie beschreiben, in welchem Maße die tatsächlichen Werte innerhalb der Toleranzgrenzen streuen und wie zentriert der Prozess ist. Das heißt gleichzeitig, wie gut der tatsächliche Mittelwert mit dem Soll-Mittelwert oder Zielwert übereinstimmt. Ziel der Auslegung der Prozesse ist die Festlegung der Fertigungsparameter, sodass die Prozesse unter beherrschten Bedingungen ablaufen können. Ein Mindest Cpk- Wert von 1,33 ist für eine ausreichende Prozesssicherheit bzw. problemlose Zulieferungen gefordert. Von fähigen oder beherrschten Prozessen spricht man, wenn der Wert über 1,33 liegt. Angestrebt werden sollen Werte von mindestens 1,67. Soll eine höhere Prozessfähigkeit angestrebt werden, so kann das folgendermaßen erreicht werden:

  1. Ausweitung des Toleranzbandes durch robustes, d.h. gegen Störungen unempfindliches Design
  2. Zentrierung des Prozesses
  3. Eliminierung systematischer Ausreißer (auf bestimmte Ursachen rückführbar)

Ziel muß es sein, die für die Prozesse relevanten Einflußparameter und ihre Auswirkungen auf den Prozess kennenzulernen und zu beherrschen und die Zielerreichung durch ein robustes Design zu unterstützen. Sich auf die Produktmerkmale empfindlich auswirkenden Prozessschritte müssen systematisch optimiert und robust gemacht werden.

Systematische Verbesserung der Prozessbeherrschbarkeit:

Hat die Analyse des vorangegangenen Punktes "Prozessanalyse" eine unzureichende Prozessstabilität erbracht, oder sind die Möglichkeiten einer Risikoreduzierung durch Umgestaltung der Lösungsmöglichkeit erschöpft, ist es Aufgabe dieses Arbeitsschrittes, die Voraussetzung für die Führung der Prozesse mit Hilfe von SPC zu schaffen. Zielsetzung des Einsatzes von SPC ist die Trennung von auf den Prozess einwirkenden statistischen und systematischen Einflüsse, um die Prozessstreuung sukzessive durch Ausschaltung der systematischen Einflüsse reduzieren zu können und so den Prozess mit immer engeren Streuungen um den Sollwert zu fahren. Davon inspiriert ist auch die Forderung des "never ending improvement" oder der ständigen Verbesserung aller Prozesse (auch der nicht unmittelbar technologischen)

Statitische Prozessregelung (SPC)

SPC-Anwendung: Bei wenig verstandenen Prozessen wird das Ergebnis mittels SPC überwacht. Bei systematischen Abweichungen wird nach den Ursachen gesucht. Allgemein ist jedoch der Trend festzustellen, dass mit fortschreitendem Automatisierungsgrad und Ausbau der Prozessleittechnik Produktionsprozesse immer besser geregelt und überwacht und die Prozessergebnisse somit immer stabiler werden. Für solchermaßen automatisierte Prozesse hat das zwangsweise eine Zurückdrängung der SPC zur Folge (vergl. dazu [ ]). Nach wie vor ihren Stellenwert wird SPC bei allen nicht direkt regelbaren Prozessen beibehalten, insbesondere dort, wo menschliche Arbeit erforderlich ist oder man überhaupt einen "menschlichen" Prozess betrachtet. Die statistische Prozesskontrolle (SPC) hat nach anfänglicher Skepsis und Widerständen ("zu aufwendig, der Meister kennt "seinen" Prozess ohnehin am besten") in weiten Bereichen der Industrie ihren Siegeszug gefeiert. Insbesondere in der Automobilindustrie ist die SPC ein fester Bestandteil der Qualitätssicherung, wobei in der Regel deren Einführung auch bei den Zulieferanten verlangt wird (z.B. ZABROCKI [8]). Nichtdestotrotz werden immer wieder Stimmen laut, dass SPC nicht überall gleichermaßen anwendbar ist, so beispielsweise in der Kunststoffindustrie [ ] oder in der Einzelfertigung. Statistische Qualitätslenkung durch SPC bezieht sich nicht nur auf Prozesse sondern auch auf die Ergebnisse von Prozessen. In der chemischen Industrie, Verfahrenstechnik, Lebensmittelindustrie usw. gibt es nun viele Prozesse, wo die einzelnen Prozessparameter mittels Leittechnik überwacht und mit größter Präzision auf einen Sollwert geregelt werden. Abweichungen vom Sollwert z.B. durch Störgrößeneinfluss werden lediglich durch die Reaktionszeit des Reglers verzögert ausgeregelt. SPC wäre also zur Steuerung solcher Vorgänge ungeeignet und würde einem Rückschritt gleichkommen [ ]. Ein analoges Beispiel aus dem Bereich der Elektrotechnik ist die Temperaturregelung des Lötbades einer automatischen Lötanlage. Eine SPC Überwachung der Lötbadtemperatur (anstatt einer Temperaturregelung) wäre sicher kein geeignetes Mittel zur Sicherstellung der Qualität von Lötverbindungen. Trotzdem kann jedoch die Qualität der Lötverbindung schwankend sein und diese kann mit SPC sehr wohl überwacht werden. Daraus erkennt man, dass SPC bei automatisch geregelten Systemen unsinnig ist, jedoch bei bestimmten Prozessen oder Produkten, durchaus sinnvoll sein kann. Mit SPC überwachte Prozesse sind aber nicht automatisch eine Gewähr für stabile Produkte. Bei ungenügender Kenntnis der Zusammenhänge zwischen Prozess- und Produkt-Qualitätsmerkmalen können möglicherweise die falschen Prozessparameter überwacht werden. Viele Zusammenhänge sind oft gar nicht ausreichend bekannt. Beispiele hierfür sind viele Prozesse der Halbleiterindustrie sowie auch, wie dem Verfasser bei einer Unternehmensbefragung mitgeteilt wurde, der Alu-Druckgußprozess. Der Idealfall wäre dann gegeben, wenn alle Produktmerkmale eindeutig auf die einzelnen Prozesseinstellungen zurückführbar wären und die Zusammenhänge mit Hilfe mathematischer Funktionen beschreibbar wären. In vielen Fällen, wo das nicht möglich ist, kann man sich mit den Methoden der statistischen Versuchsplanung durch systematische Variation der Maschineneinstellparameter behelfen. Auf diese Weise erhält man Prozessmodelle, wo die Ausgangsgrößen (= Qualitätsmerkmale des Produktes) den Eingangsgrößen (= Prozess- oder Maschineneinstellungen) analytisch zugeordnet sind.

SPC- Weiterentwicklung: Die klassische SPC wurde zu einer kontinuierlichen Prozessüberwachung oder "Continuous Process Control" (CPC) weiterentwickelt, wobei anstatt der oder zusätzlich zu den Qualitätsmerkmalen des Produktes die Qualitätsmerkmale überwacht werden. Die Schwierigkeit dabei liegt nur darin, aus einer Vielzahl möglicher Prozessparameter jene auszuwählen, welche für die Qualitätsmerkmale entscheidend sind. Ändern sich die Qualitätsmerkmale des Produktes durch entsprechende Toleranzvorhalte am Prozess sicherzustellen. Hierzu müssen die Abhängigkeiten ... Eine Weiterentwicklung der stichprobenhaften, statistischen Prozesskontrolle (SPC) zur kontinuierlichen Prozessüberwachung "Continuous Process Control" (CPC)zu einer automatischen On- line- Prozessüberwachung Continuous Quality Control (CQC)bis zum CLOSED Loop Continuous Quality Control (CCQC), bei welcher die Maschinenautomatik selbstständig ein Abdriften der Qualitätsmerkmale erkennt und automatisch gegensteuert (BREUER [2]).

Dynamische Prozessverbesserung mit SPM- Statistical-Process-Monitoring: Ein wichtiges Hilfsmittel ist die Qualitätsregelkarte. Der Hauptunterschied zwischen der üblichen statistischen Prozessregelung (SPC) und einer dynamischen Prozessverbesserung liegt in der durch das Aufzeigen (Monitoring) ausgelösten Aktivitäten. Während in der Vergangenheit nur bei Überschreitung gewisser Eingriffsgrenzen eine definierte Korrekturmaßnahme ausgelöst wurde, werden bei der dynamischen Prozessverbesserung Abweichungen zielwertbezogen verfolgt und herausragende Abweichungen vom Zielwert als Auslösesignal von Analysen benützt. Eine tiefer gehende Analyse des Prozesszeitraumes, in dem der besondere Effekt aufgetreten ist, soll klären, welche Umstände oder Störgrößen zu diesem Ereignis geführt haben. Das heißt, die unmittelbare Prozessvorgeschichte wird analysiert, um Hinweise auf die Ursache der ungünstigen Prozessentwicklung zu bekommen (DANZER [3], S.22 ff.). Eine problemlose und kostengünstige Herstellbarkeit (Stichworte Design to Cost, Design to Manufactoring) ist dann gegeben, wenn das Risiko von Fehlern klein ist und wenig aufwendige Prozesse auf einfache Weise stabil und ohne unvorhergesehene Unterbrechungen geführt werden können (das ist das "Geheimnis" der Japaner bei der Chipfertigung). Zu komplizierte Prozesse an der Grenze der technischen Möglichkeiten sind nur sehr schwer stabil zu führen, da man teilweise Einflüsse und Zusammenhänge zu wenig kennt. Das Fehlerrisiko eines laufenden Prozesses soll daher in den ppm- Bereich gebracht werden.

Prozessoptimierung in Richtung "Low-Cost": Vorsicht ist jedoch angebracht bei Prozessvereinfachungen in Richtung "Design to cost", "Ratioprozessen" usw.; Aus eigener Erfahrung sind dem Verfasser Prozesse bekannt, bei welchen teure, scheinbar unnötige Zwischenschritte wie Prüf- und Reinigungsschritte eingespart wurden, was nachher verheerende Auswirkungen auf die Produktqualität zeigte. Als ein weiteres Beispiel wird von BINDER in [1] berichtet, wie Änderungen an bewährten Isolierungskomponenten (bedingt durch zunehmenden Kostendruck) zu schwer vorhersehbaren Einflüssen auf die Eigenschaften des Gesamtisoliersystems und damit zu unerwarteten Problemen geführt haben. Neben den gezielten Optimierungen wie statistische Prozesskontrolle (SPC) oder DoE gibt es auch eine Verbesserung der kleinen Schritte. Kleine, unspektakuläre aber beständige Verbesserungen ("Never ending improvement"; japanisch "kaizen") zur Philosophie erhoben führen auch zu besseren Optima und/oder niedrigeren Kosten. DANZER nennt in seinem Buch ([3],S.73 ff.) eine Reihe solcher Methoden zur Qualitätsoptimierung


Mögliche Risiken durch eine nicht oder nicht ausreichend durchgeführte Prozessoptimierung


nach oben


Literaturhinweise

  1. Binder,E.; Draxler,A.; Egger,H.;Hummer,A.:"Qualitätsmanagement von Hochspannungs-statorwicklungen mittels dielektrischer Diagnose", Berichte über CIGRE Session 1996, Kurzfassung, e&i, 113.Jg, 1996, Heft 12, S.800 bis 801; Originalbericht vom Verfasser persönlich erhalten
  2. Breuer P.; Schmid, G. u. a. : Prozesse überwachen- Qualität regeln; Von der manuellen Prüfung zur automatisierten Qualitätsregelung beim Kunsstoffspritzgießen" QZ 40, 1995, Heft 10, S.1166 bis 1170
  3. Danzer, H.H.: "Qualitätsmanagement im Verdrängungswettbewerb- Der Schlüssel zum Überleben im Käufermarkt" TAW-Verlag Wuppertal ISBN 3-930526-01-8 und Verlag Industrielle Organisation Zürich 1995 ISBN 3-85743-979-3
  4. Danzer,H.H.:"Qualitätsmanagement", Vorlesungsskriptum TU Graz
  5. Holst, G.; Nedeß Ch.: " Statistische Versuchsmethodik in Zeiten schlanker Produktion", QZ 39, 1994, Heft 7, S. 756-761
  6. Nedeß, Ch.; Holst, G.: " Hilfen für die statistische Versuchsplanung?- Taguchis orthogonale Felder und lineare Graphen, Teil 1", QZ 37, 1992, Heft 2, S.93-97
  7. Schmelzer, H.J.: "Qualitätscontrolling in der Produktplanung und Produktentwicklung" QZ 39, 1994, Heft 2, S.117 bis 125 und Heft 3, S.260 bis S.267
  8. Zabrocki, K.: "SPC in der Kunsstofferzeugung", QZ 40, 1995, Heft 10, S. 1172 bis 1176