Mittels Statistischer Technik erzielen Sie Leistungssprünge,  konventionell nur Leistungssteigerungen, beispielsweise für Prozesse. Warum? Weil mittels Statistischer Technik möglichst große Variationen im Prozess und zwischen Prozessen untersucht werden, konventionell dagegen meist nur die Mittelwerte von Einflussgrößen nach vorangegangener Segmentierung.

Beispielsweise dauert ein durchschnittliches Applikationsprojekt bislang 10 Monate. Die Summe aus Durchschnittswerten von Musterbauzeit, Testzeit und anderen Einflussgrößen erlaubt eine Senkung der Dauer auf 8 Monate. Die Variation der Applikationsprojekte zeigt, dass eines 8 Monate dauerte und alle bis zu 12 Monate streuen, fast jedes Mal aus anderen Gründen. Die Kenntnis der Grundursachen der Variation erlaubt nun, das Ziel auf 5 Monate festzulegen und zu erreichen. Zusammen mit einigen Massnahmen für schlanke und agile Entwicklung wird dieses Ziel unterschritten.

Durch Variationsanalyse wird die Grundursache der Variation ermittelt einschliesslich der Wechselwirkungen. In Kenntnis der Grundursache reichen wenige gezielte Massnahmen zur Problemlösung. Konventionell dagegen werden meist viele Massnahmen ohne hinreichend belastbares Datenfundament vorgeschlagen und oft nur teilweise umgesetzt, weil sonst die Organisation überfordert würde. Erst im Nachhinein stellt sich heraus, welche Massnahme besonders wirksam war.

Statistische Technik ermöglicht, Optimierungsziele und Präventionsziele zu erreichen. In der Prävention werden die echten Probleme früh erkannt und gemessen. Es entfällt das Sammeln von möglichen Problemen und deren möglicher Ursache. Zugehörige Tools wie FMEA, FTA oder Ishikawa-Diagramm sind verzichtbar.

Kluges Durchdenken des Problems, die Problemklassifizierung und vordefinierte Lösungsoptionen erlauben zielgerichtetes und oft planbares Lösen selbst kniffligster Technikprobleme.

Die Problemlösung erfolgt durch iteratives und empirisches Ausschliessen unwichtiger Einflussgrössen auf die Variation. So arbeitet auch Sherlock Holmes. Dadurch sind bis zu 24 theoretisch geprägte Tools verzichtbar.

Darüber hinaus verlangt Statistische Technik Effizienzsteigerung durch gleichzeitige Untersuchung mehrerer Einflussgrößen pro Iteration. Wenn Daten vorhanden sind oder durch Beobachten erreichbar sind, kann oft sogar auf Musteraufbau, Tests und Simulationen verzichtet und so die Effizienz weiter gesteigert werden.

Ingenieure sind mit Versuch und Irrtum vertraut, dem iterativ empirischen Vorgehen unter Veränderung jeweils einer Einflussgröße. Die Statistische Technik erlaubt – durch iterativ empirisches Vorgehen unter gleichzeitiger Veränderung mehrerer Einflussgrößen – mit ganz wenigen Daten oder Mustern ausreichend sicher zwischen Effekt von Einflussgrößen und verbleibender Streuung zu unterscheiden. Das funktioniert mit Versuch und Irrtum nicht.

Bei vielen Einflussgrößen auf das zu lösende Problem ist die Statistische Technik schneller und effizienter als ihre beiden empirischen Alternativen, Versuch und Irrtum sowie komplexe Versuchspläne (DoE).

Diese komplexen Versuchspläne können nur durch Spezialisten mit speziellen Tools fehlerarm gehandhabt werden. Für die Statistische Technik dagegen reicht MS Excel als Tool zur Planung, Datenerfassung und Datenauswertung aus. Damit ist sie durch jeden Ingenieur und Kaufmann anwendbar und mit ein wenig Übung sehr wertvoll.

Die detaillierte, einfach anwendbare und aus allen erforderlichen Bausteinen für erfolgreiche Optimierungsprojekte bestehende Methodik finden Sie in unserem Fachbuch Statistische Technik. Es ist erschwinglich und weltweit bei Amazon erhältlich.