Statistische Prozesslenkung (SPC)
Statistische Prozesslenkung hilft Produktionsbetrieben, ihre Fertigungsprozesse zu überwachen und stabil zu halten. Die Methode nutzt statistische Verfahren, um zwischen normalen Schwankungen und echten Problemen zu unterscheiden. Statistische Prozesslenkung (SPC) ist ein Verfahren, das durch den Einsatz von Qualitätsregelkarten und statistischen Kennzahlen Abweichungen in Produktionsprozessen frühzeitig erkennt und die gleichbleibende Qualität kosteneffizient sichert.

Walter A. Shewhart entwickelte SPC in den 1930er Jahren bei den Bell Telephone Laboratories. Er erkannte, dass Streuungen in der Produktion zwei verschiedene Ursachen haben: allgemeine Ursachen durch normale Prozessschwankungen und besondere Ursachen durch Fehler in Material, Maschinen oder Konstruktion. Seine Qualitätsregelkarten ermöglichen es, diese beiden Arten von Abweichungen zu unterscheiden und gezielt zu handeln.
Die Umsetzung von SPC erfordert fundiertes Wissen über statistische Methoden und deren praktische Anwendung. Unsere Dienstleistungen umfassen Auditierung bestehender Prozesse, individuelle Beratung zur Einführung von SPC-Systemen sowie Schulung und Weiterbildung für Mitarbeiter. Mit der richtigen Unterstützung lassen sich Prozesse stabilisieren, Ausschuss reduzieren und Kosten senken.
Wichtigste Erkenntnisse:
- SPC unterscheidet zwischen zufälligen Prozessschwankungen und systematischen Fehlern durch statistische Auswertung
- Qualitätsregelkarten sind das zentrale Werkzeug zur Überwachung und Steuerung von Fertigungsprozessen
- Die Methode sichert ein vordefiniertes Qualitätsniveau kosteneffizient, erhöht aber nicht automatisch die Produktqualität
Wir bieten dazu folgende Leistungen an:
Auditierung
Beratung
Schulung
Weiterbildung
Kostenlose Erstberatung
Grundlagen und Funktionsweise der Statistischen Prozesslenkung
Die Statistische Prozesslenkung unterscheidet zwischen zufälligen und systematischen Abweichungen in Produktions- und Serviceprozessen. Walter A. Shewhart entwickelte diese Methode, um Qualität kosteneffizient zu sichern und Prozessstabilität zu gewährleisten.
Definition und Ziele der Statistischen Prozesslenkung
Die Statistische Prozesslenkung (SPC, Statistical Process Control) ist eine Methode zur Überwachung und Steuerung von Prozessen durch statistische Verfahren. Sie wird auch als statistische Prozessregelung oder statistische Prozesssteuerung bezeichnet.
Das Hauptziel besteht darin, ein vordefiniertes Qualitätsniveau kosteneffizient einzuhalten. SPC dient nicht dazu, die Qualität über das benötigte Maß hinaus zu erhöhen. Eine übermäßige Qualitätssteigerung würde die Kosten exponentiell erhöhen, ohne wesentlichen Zusatznutzen zu schaffen.
Die Methode ermöglicht es, Abweichungen frühzeitig zu erkennen und zwischen normalem Prozessverhalten und tatsächlichen Störungen zu unterscheiden. Dadurch lassen sich Fehlerkosten reduzieren und die Prozessstabilität verbessern.
SPC findet Anwendung in Produktionsprozessen sowie in Serviceprozessen. Die Methode ist Bestandteil moderner Qualitätsmanagementsysteme und erfüllt Anforderungen internationaler Standards wie ISO 9001 und IATF 16949.
Unterschiede zwischen allgemeiner und besonderer Variation
Shewhart erkannte zwei grundsätzlich verschiedene Ursachen für Streuung in Prozessen. Diese Unterscheidung bildet das Fundament der Statistischen Prozesslenkung.
Allgemeine Ursachen (auch zufällige Variation genannt) entstehen durch das normale Verhalten eines Prozesses. Diese Streuung ergibt sich aus vielen kleinen, zufälligen Einflüssen, die nicht einzeln kontrollierbar sind. Sie führen zu einem stabilen, vorhersagbaren Muster.
Besondere Ursachen (auch systematische Variation genannt) weisen auf spezifische Störungen hin. Dazu zählen:
- Materialfehler
- Maschinenfehler
- Konstruktionsfehler
- Bedienungsfehler
Die Herausforderung besteht darin, diese beiden Variationsarten korrekt zu unterscheiden. Shewhart identifizierte zwei mögliche Fehler:
Fehler 1: Eine normale Schwankung wird fälschlicherweise als besondere Ursache behandelt. Dies führt zu unnötigen Eingriffen und erhöhten Kosten.
Fehler 2: Eine tatsächliche Störung wird als normale Schwankung missinterpret. Dadurch bleiben Probleme unentdeckt und die Qualität verschlechtert sich.
Historische Entwicklung und internationale Standards
Walter A. Shewhart entwickelte die Statistische Prozesslenkung in den 1920er Jahren bei den Bell Telephone Laboratories. Seine Arbeit entstand aus der Notwendigkeit, bei Western Electric in Chicago gleichmäßige und zuverlässige Produkte herzustellen. 1931 veröffentlichte er seine Erkenntnisse im Buch "Economic Control of Quality of Manufactured Product".
Im Zweiten Weltkrieg fand SPC ihre erste großindustrielle Anwendung bei der Herstellung von Rüstungsgütern. William Edwards Deming erkannte später, dass diese Methoden auf alle Arten von Geschäfts- und Verwaltungsprozessen anwendbar sind.
In Japan entwickelte sich die Methode besonders erfolgreich weiter. Das Toyota-Produktionssystem integrierte SPC als wichtigen Bestandteil seiner Qualitätsphilosophie.
Heute ist die statistische Prozesskontrolle in internationalen Normen und Richtlinien verankert. Die VDA-Bände (Verband der Automobilindustrie) definieren spezifische Anforderungen für die Automobilbranche. Unternehmen nutzen SPC als Serviceprozess, der den Kernprozess der Produktion begleitet und unterstützt.
Wie können wir Sie unterstützen?
Instrumente, Indizes und praktische Umsetzung
Die erfolgreiche Anwendung der statistischen Prozesslenkung erfordert konkrete Werkzeuge zur Überwachung und präzise Kennzahlen zur Bewertung der Prozessfähigkeit. Die praktische Einführung dieser Methoden in Fertigungsprozesse und Serviceprozesse folgt dabei klar definierten Schritten.
Regelkarten und Grenzwerte im Überblick
Qualitätsregelkarten bilden das zentrale Instrument zur Überwachung von Produktionsprozessen. Eine Regelkarte zeigt den Mittelwert und die Streuung eines Merkmals über die Zeit. Sie enthält drei wichtige Linien: die Mittellinie und zwei Kontrollgrenzen.
Die Kontrollgrenzen werden aus den Prozessdaten berechnet und liegen typischerweise bei drei Standardabweichungen vom Mittelwert. Messwerte außerhalb dieser Grenzen zeigen eine nicht beherrschte Situation an. Zwischen den Kontrollgrenzen und der Mittellinie liegen oft Warngrenzen bei zwei Standardabweichungen. Die Eingriffsgrenzen entsprechen den Kontrollgrenzen und markieren den Punkt, an dem Maßnahmen erforderlich sind.
Für verschiedene Datentypen existieren unterschiedliche Kontrollkarten:
- Mittelwert-Karten (X-bar): Überwachen den Durchschnitt von Stichproben
- Spannweiten-Karten (R-Karten): Zeigen die Streuung innerhalb von Stichproben
- Einzelwert-Karten (I-Karten): Für einzelne Messungen ohne Stichproben
Die Stichprobengröße beträgt meist zwischen 3 und 5 Teilen. Vor dem Einsatz von Kontrollkarten muss eine Messsystemanalyse (MSA) die Eignung des Messsystems nachweisen. Die Datenerfassung erfolgt entweder manuell, durch Tabellenkalkulation oder automatisiert über MDE-Systeme (Maschinendatenerfassung) und SPC-Software wie Q-DAS, Babtec, Sciil AG oder Minitab.
Prozessfähigkeit: Cp, Cpk, Pp und Ppk
Prozessfähigkeitsindizes bewerten, ob ein Prozess die Kundenanforderungen erfüllen kann. Diese Kennzahlen vergleichen die Spezifikationen mit der tatsächlichen Prozessstreuung.
Cp (Capability of Process) misst das Verhältnis zwischen Toleranzbreite und Prozessstreuung, berücksichtigt aber nicht die Lage des Prozesses:
Cp = (Obere Spezifikationsgrenze - Untere Spezifikationsgrenze) / (6 × Standardabweichung)
Cpk erweitert diese Betrachtung um die Prozesslage. Er zeigt, wie zentriert der Prozess innerhalb der Spezifikationen liegt. Ein Cpk von mindestens 1,33 gilt in der Automobilindustrie als Standard. Werte unter 1,0 bedeuten, dass Ausschuss oder Nacharbeit zu erwarten ist.
Pp und Ppk messen die Prozessleistung über längere Zeiträume. Sie nutzen die Gesamtstreuung aller Daten statt der Streuung innerhalb von Stichproben. Diese Indizes sind wichtig für die Prozessqualifikation und die Lieferantenbewertung.
| Index |
Bedeutung |
Typischer Zielwert |
| Cp |
Potenzielle Fähigkeit |
≥ 1,67 |
| Cpk |
Tatsächliche Fähigkeit |
≥ 1,33 |
| Pp |
Langfristige Leistung |
≥ 1,67 |
| Ppk |
Zentrierte Leistung |
≥ 1,33 |
Die Berechnung erfordert einen stabilen Prozess ohne besondere Einflüsse. CAQ-Systeme (Computer Aided Quality) automatisieren diese Berechnungen und erstellen Berichte.
Erfolgreiche Einführung in Produktions- und Serviceprozessen
Die Implementierung beginnt mit der Auswahl kritischer Prozesse. Dabei helfen Methoden wie Pareto-Analysen, die zeigen, welche Fehler am häufigsten auftreten. Eine FMEA (Fehlermöglichkeits- und Einflussanalyse) identifiziert Risiken in Fertigungsprozessen.
Prozesslenkungspläne definieren, welche Merkmale wo und wie oft zu prüfen sind. Sie legen fest, welche Regelkarten zum Einsatz kommen und wie bei Abweichungen zu reagieren ist. Diese Pläne entstehen oft in Zusammenarbeit mit Kunden und werden Teil der Kunden-Lieferanten-Beziehungen.
Die praktische Umsetzung am Shopfloor erfordert geschultes Personal. Mitarbeiter müssen Kontrollkarten lesen und bei Auffälligkeiten Ursachenanalysen durchführen können. Histogramme helfen dabei, Verteilungen zu erkennen. Statistische Methoden bleiben verständlich, wenn sie praxisnah vermittelt werden.
Moderne SPC-Software verbindet die Datenerfassung mit der Auswertung. Die Systeme ermöglichen eine automatische Überwachung von Prozessen in Echtzeit, visualisieren Trends und warnen frühzeitig bei Regelverletzungen. Dadurch können Abweichungen schneller erkannt und Gegenmaßnahmen eingeleitet werden.
Für eine nachhaltige Einführung ist zudem die kontinuierliche Verbesserung entscheidend. Regelmäßige Reviews der Kennzahlen, das Anpassen von Regelgrenzen und das Lernen aus Abweichungen stärken die Prozessstabilität. Führungskräfte sollten die Anwendung aktiv unterstützen und die Ergebnisse transparent kommunizieren.
Die Einführung ist schließlich dann erfolgreich, wenn SPC nicht als isoliertes Werkzeug, sondern als fester Bestandteil der Produktions- und Servicekultur verstanden wird. So trägt sie langfristig zur Qualitätssteigerung, Kostensenkung und Kundenzufriedenheit bei.
Haben Sie Fragen?
Häufig gestellte Fragen:
Welche Methoden werden zur Überwachung und Steuerung eines Produktionsprozesses eingesetzt?
Unternehmen setzen verschiedene Methoden ein, um ihre Produktionsprozesse zu überwachen. Qualitätsregelkarten bilden dabei das zentrale Werkzeug der Statistischen Prozesslenkung.
Diese Karten zeigen auf, ob ein Prozess stabil läuft oder ob Abweichungen auftreten. Die X-quer-Karte überwacht den Mittelwert, während die R-Karte die Streuung innerhalb von Stichproben darstellt. Bei Einzelmessungen kommt die X-Karte zum Einsatz.
Weitere Methoden umfassen die statistische Versuchsplanung, die dabei hilft, optimale Prozessparameter zu finden. Die FMEA identifiziert mögliche Fehlerquellen, bevor sie im Prozess auftreten.
Moderne Unternehmen nutzen häufig Softwarelösungen zur automatischen Datenerfassung. Diese Systeme erfassen Messdaten direkt von Maschinen und werten sie in Echtzeit aus.
Wie können Regelkarten zur Verbesserung der Prozesskontrolle beitragen?
Regelkarten unterscheiden zwischen zufälligen und besonderen Abweichungen im Prozess. Diese Unterscheidung verhindert unnötige Eingriffe bei normalen Schwankungen.
Walter Shewhart entwickelte das Konzept, dass Prozesse zwei Arten von Streuung aufweisen. Allgemeine Ursachen erzeugen zufällige Abweichungen, die zum Prozess gehören. Besondere Ursachen hingegen deuten auf Störungen wie Materialfehler oder Maschinenfehler hin.
Die Regelkarte zeigt Warngrenzen und Eingriffsgrenzen an. Liegen Messwerte außerhalb dieser Grenzen, muss der Prozess untersucht werden. Auch bestimmte Muster innerhalb der Grenzen können auf Probleme hinweisen.
Durch die kontinuierliche Überwachung erkennen Mitarbeiter Trends frühzeitig. Sie können rechtzeitig gegensteuern, bevor fehlerhafte Produkte entstehen. Dies senkt Ausschuss und Nacharbeit.
Welche Rolle spielen statistische Toleranzen bei der Prozessfähigkeitsanalyse?
Statistische Toleranzen definieren den zulässigen Bereich für Produktmerkmale. Sie bilden die Grundlage, um zu beurteilen, ob ein Prozess die gewünschte Qualität liefern kann.
Bei der Prozessfähigkeitsanalyse wird die natürliche Streuung des Prozesses mit den vorgegebenen Toleranzen verglichen. Ein fähiger Prozess produziert nahezu alle Teile innerhalb der Spezifikationsgrenzen.
Die Toleranzbreite sollte deutlich größer sein als die Prozessstreuung. Als Faustregel gilt, dass die sechsfache Standardabweichung des Prozesses in die Toleranz passen sollte.
Zu enge Toleranzen führen zu hohen Ausschussraten und steigenden Kosten. Zu weite Toleranzen können die Funktion des Produkts beeinträchtigen. Die richtige Balance ist entscheidend.
Inwiefern unterstützt die Prozessfähigkeitsindexberechnung die Qualitätssteuerung?
Prozessfähigkeitsindizes quantifizieren die Leistungsfähigkeit eines Prozesses. Sie ermöglichen einen direkten Vergleich zwischen verschiedenen Prozessen.
Der Cp-Wert zeigt das Verhältnis zwischen Toleranzbreite und Prozessstreuung. Er beantwortet die Frage, ob der Prozess grundsätzlich fähig ist. Ein Cp-Wert von mindestens 1,33 gilt als akzeptabel.
Der Cpk-Wert berücksichtigt zusätzlich die Lage des Prozesses. Ein zentrierter Prozess nutzt die Toleranz optimal aus. Bei einseitiger Lage sinkt die Prozessfähigkeit, selbst wenn die Streuung gering ist.
In Kunden-Lieferanten-Beziehungen dienen diese Kennzahlen als Qualitätsnachweis. Lieferanten müssen häufig bestimmte Mindestwerte erreichen. Die regelmäßige Berechnung zeigt Verbesserungen oder Verschlechterungen auf.