Das Ende einer Management Illusion


Veröffentlicht unter Allgemein | Kommentare deaktiviert für Das Ende einer Management Illusion

Vorwort

Worum geht’s?

Es geht um das Management von Unternehmen. Und es geht darum, zu verstehen, warum wir Manager in vielen Bereichen wenig professionell agieren. So wie die gleichen Manager glauben, dass Kaffee entwässert und nasse Haare krank machen.

Dieses Buch zeigt auch, warum dies noch keinem so richtig aufgefallen ist. Warum also beispielsweise oft solche Manager gefeiert und befördert werden, die nicht durch besondere Kompetenz, sondern durch politisches Geschick glänzen.

Im Kern aber geht es darum, Wege aufzuzeigen, wie man es besser macht. Leider sind die Wege nicht so eingängig wie eine Boston-Matrix. Die Welt des Managements hat mehr, weit mehr, als zwei Dimensionen. Im Buch erfahren Sie daher, warum ein gutes Management nur mit multivariaten Ursachenanalysen möglich ist. Und es wird klar werden, dass, wer sich diese nutzbar macht, den Turbo hin zu einem hocheffektiven Unternehmen einschaltet.

 

 

«Eine Investition in Wissen
bringt noch immer die höchsten Zinsen.»
Benjamin Franklin, (1706 -1790),

US-Staatsmann und Ökonom

Veröffentlicht unter Allgemein | Kommentare deaktiviert für Vorwort

1. Alltagswissen und andere Mythen

Ich höre noch immer die Mahnung meiner Mutter in meinen Ohren: „Junge, trink nicht so viel Kaffee! Das entwässert.“ Aber ich liebe doch Kaffee. So ein Mist!

Neulich zappe ich durch das abendliche TV-Programm und bleibe bei der Sendung mit der Maus für Erwachsene, die unter „Galileo“ firmiert, hängen. Es geht um Kaffee und das „Allgemeinwissen“, das mir meine Mutter immer wieder auf den Weg gibt. Tatsächlich wirkt ein Stoff im Kaffee etwas entwässernd. Dieser Effekt ist jedoch minimal. Zudem besteht ja eine Tasse voll Kaffee vor allem aus Wasser. Diese Wassermenge überkompensiert bei Weitem den Wasserverlust, der durch die Kaffeepartikel ausgelöst wird.

Witzig. Ich hatte es meiner Mutter geglaubt. Warum eigentlich? Ich habe doch schon tausende male Kaffee getrunken und damit meine private Validierungsstudie durchgeführt. Mir war es nicht aufgefallen.

Da fiel mir wieder auf, warum es meiner Mutter so ein Anliegen war. In den Jahren, in denen mein Vater noch arbeitete, versorgte der sich während der Arbeit mit Flüssigkeit fast ausschließlich, indem er Kaffee und Tee trank. Die Folge war Wassermangel, häufige Kopfschmerzen, ein ständig trockener Mund und die Dinge, die damit einhergingen. Als meine Mutter dann von der entwässernden Wirkung von Kaffee hörte, war der Schuldige gefunden. Der Kaffeekonsum wurde massiv reduziert und stattdessen Wasser getrunken. Das Problem war gelöst und eine Vermutung festigte sich zu Wissen.

Tatsächlich entwässert Kaffee nicht. Manche Leute neigen nur dazu, wenn Sie Kaffee trinken, stundenlang kein Wasser zu sich zu nehmen. Schon komisch, wie relativ einfaches falsches Wissen von uns im Alltag nicht erkannt wird. Zum Glück passiert das nur im Privatleben – im Geschäftsleben sind ja Profis am Werk. Oder?

Die Galileo-Sendung ging weiter und nahm Anlauf auf einen weiteren Mythos meiner Jugend. Es ging um den Glauben, dass Kälte eine Erkältung auslöst. Alte Erinnerungen wurden wach: „Junge, föhn’ dir die Haare, du holst dir sonst den Tod!“ Föhnen war uncool und ein absolutes No-Go zu meiner Zeit. Ein weiterer Klassiker war die liebevoll gemeinte Anregung: „Zieh den Schal an, Junge, es ist kalt draußen!“ Zum Schutz der Selbstbestimmung missachtete ich den Rat aus Prinzip. Denn ich entscheide bitteschön immer selbst wann ich einen Schal anziehe!

Meistens ging es auch gut. Ich wurde nicht krank. Ein klarer Beweis, dass die Jugend oft schlauer ist als die weisen Erwachsenen. Oder?

Gespannt folgte ich weiter der Sendung, die sonst nur zu oft langweilige Banalitäten zu vermitteln wusste. Warum machen nasse Haare im Frühlingswind nicht krank? Die Investigativ-Journalisten treten mit einem Experiment den Beweis an. Einige Probanden stellen sich eine Stunde lang in ein kaltes Wasserbad. Keiner davon wird krank.

Das ist erstaunlich. Denn wenn eines klar ist, dann dass Unterkühlung doch krank macht. Oder? Leider nein. Einem gesunden Körper macht das absolut nichts aus!

Aber in diesem Satz befindet sich auch eine Einschränkung: gesund. Unterkühlung schwächt die Abwehrkräfte gegen viralen Befall. Haben wir uns mit Viren infiziert, so kommt unser Abwehrsystem oft damit zurecht und eliminiert die Eindringlinge, bevor sie sich zu stark vermehren. Kommen dann aber Kälte, Stress oder sonstige Gifte dazwischen, ist die Wahrscheinlichkeit höher, dass wir einen viralen Infekt bekommen. Das ganze heißt dann Erkältung, hat aber nur sehr bedingt etwas mit Kälte zu tun.

Sie mögen einwenden: „Na ja, das Vermeiden der Kälte reduziert zumindest einen Risikofaktor. Daher ist die Empfehlung richtig.“ Die Empfehlung macht nicht krank und verhindert in wenigen Fällen die Krankheit. Aber gegenüber dem Anwenden von richtigem Wissen verursacht die Empfehlung Einschränkungen und Umstände, die man im Geschäftskontext Kosten nennen würde.

Spannend, denke ich mir. Schon wieder hatte mich meine Mutter „beschwindelt“. Zugegeben, Sie wusste es nicht besser. Doch warum nicht? Das sind doch Dinge, die erleben wir im Schnitt zwei- bis dreimal im Jahr. Man sollte doch in der Lage sein, aus eigenen Erfahrungen valides Wissen abzuleiten, oder? Wahrscheinlich klappt das nicht, weil wir alle nur Laien sind. Wären wir Profis in der Wissensgenerierung, würde das nicht passieren. Manager sind ja auch Profis darin im Laufe einer Berufslaufbahn Wissen darüber anzuhäufen, wie man erfolgreich ein Unternehmen oder Teilbereiche davon führt. Zudem bekommen diese ja schon gesammeltes Wissen von anderen Management-Profis im Studium vermittelt. Daher kann dies im Management sicher nicht passieren. Oder?

 

Erleuchtet und nachdenklich zugleich zappte ich weiter….

Einige Tage später wurde ich krank. Obwohl ich immer brav die Haare föhne. Ich machte mich auf zu diesem neuen Allgemeinmediziner, den mir ein Freund empfohlen hatte. Der Termin war kurz und schmerzlos. Wie am Fließband eben, so wie wir alle bei diesen Wald-und-Wiesen-Krankheiten abgefertigt werden. Überrascht hatte mich dann aber doch eine Art „FAQ-Zettel“, den ich dann in die Hand gedrückt bekam. Neben dem enormen Effizienzgewinn, der dieser Beratungsmethode innewohnt, überraschte mich der Inhalt. Darin war u. a. zu lesen: „Trinken Sie keinen Orangensaft. Trinken Sie keine Milch.“. Wissbegierig, wie ich nun mal bin, fragte ich nach. „Das widerspricht doch jedem logischen Menschenverstand. Orangensaft hat Vitamine und muss gut sein. Milch ist sowieso immer super. Das sagt nicht nur die Werbung. Auch endlose Studien der Milchlobby beweisen das“, sagte ich.

Okay, das Thema Milch lasse ich mal außen vor. Hierzu sagte der Arzt nur, dass Milch verschleimt und bei einer Erkältung heiser macht.

Aber was ist mit dem Orangensaft? Der Arzt erklärte mir: „Na ja, Vitamine sind schon drin. Aber Vitamin C ist gut für die Stärkung der Abwehrkräfte vor der Infektion (auch wenn das Ausmaß, in dem Vitamin-C wirklich hilft, umstritten ist). Während der Infektion hilft es dann kaum noch. Viel schlimmer ist jedoch, dass kalte Getränke per se den Körper auskühlen und das nimmt dem Körper die Energie, die es zur Virenabwehr benötigt. Warm halten, Heißes trinken und ausruhen ist daher die Geheimwaffe zur Genesung“, sagt er.

Puuh, schon wieder alles Kokolores was meine Mutter mir gepredigt hatte. Obwohl, nicht ganz. Sie hat stets darauf geachtet, dass ich Bettruhe bekam. Das war natürlich damals auch ein zu starker Einschnitt in meine Persönlichkeitsrechte und eine offene Kriegserklärung an mein Selbstbestimmungsrecht. Nun ja, jetzt endlich wusste ich, dass Mutter in dieser Sache Recht hatte.

Gedankenversunken ging ich nach Haus. Warum hat mir das noch kein Arzt gesagt? Warum weiß das keiner meiner Freunde? Die Erklärung des Arztes war einfach wie einleuchtend. Und auch hier war es sicher so, dass ich bestimmt schon hundertmal in meinem Leben erkältet gewesen war. Eigentlich war ich Erkältungsprofi. Trotzdem hatte ich Wissen in meinem Kopf, das nicht nur falsch, sondern schädlich war. Vermutlich war dies nur, weil ich in meinem Privatleben nicht so strukturiert und professionell Wissen aufbaue, wie in meinem Beruf. Oder?

Abends berichtete ich meine Erkenntnisse meiner Frau Viktoria. Sie nahm meine neuesten Erkenntnisse nicht unkritisch entgegen, pflichtete mir dann aber bei. Ihr Talent, mir Recht zu geben, ist einer der Gründe, warum ich sie so liebe. Nach meinem Vortrag wollte sie sich entspannen und fragte mich: „Hast du noch was von dieser Bitterschokolade übrig? Die macht ja nicht dick.“

Als kleiner Besserwisser erinnerte ich sie an das Wein-Schokoladen-Seminar, welches wir vor kurzem gemeinsam absolvierten. Dort machte uns der Kursleiter darauf aufmerksam, dass Bitterschokolade bedingt durch den höheren Kakaofettanteil, die gleichen Kalorien hat wie Vollmilchschokolade. Bitterschokolade hat viel Fett und Vollmilchschokolade viel Zucker. Warum also sollte Bitterschokolade nicht so dick machen?

Ich kann nur mutmaßen. Vermutlich neigen Vollmilch-Fans dazu, Unmengen davon zu verzehren, während Bitterschokoladen-Liebhaber tendenziell sparsamer mit dem Genussmittel umgehen. Ob dies an der Schokolade liegt oder andere Variablen dafür verantwortlich zeichnen, mag ich nicht zu beurteilen. Fakt ist, dass jeder „weiß“, dass Vollmilchschokolade dick macht. In Wahrheit macht nur viel essen dick und wenig essen schlank.

Zum Glück finden derlei Verwirrungen nur in so unwichtigen Bereichen wie der Schokoladenwahl statt. Oder? Meine Frau würde protestieren, denn zu verwechseln, was dick oder schlank macht, ist nicht unwichtig für eine Frau. Okay, wir sind keine Profis.

Die wachsende Liste der Alltagsmythen, denen wir alle erliegen, hat mich aufmerksam gemacht. So stieß ich vor kurzem auf einen weiteren Mythos.

Ich selbst bin im grauen Osten Deutschlands großgeworden – in einer Zeit, in der Kinderlachen eine Seltenheit war, da es noch keine D-Mark gab. Bei uns war es üblich, dass wir uns am Wochenende badeten. Keine Ahnung warum. Wasser gab es genug. Ich wusch mir einmal die Woche die Haare. Den Fotos zufolge sahen diese keineswegs fettig aus.

Heute muss ich in der Fernsehwerbung immer wieder lernen, dass tägliches Haarewaschen gar kein Problem ist. Und im Bekanntenkreis gilt man als Sonderling, wenn man zugibt, dies nur alle zwei Tage zu tun. Ein Normalo war ich noch nie. Daher scheue ich mich nicht, ganz offen zu sein.

Zum Glück kam vor ein paar Jahren wieder Galileo zu Hilfe. Die testen genau dieses Phänomen. Sie ließen ein paar Damen ihre Haare ein paar Wochen ungewaschen tragen. Die Folge war, dass die Haare weniger nachfetteten. Daher war ein häufiges Waschen auch nicht mehr notwendig. Das Nachfetten des Haares ist eine Schutzfunktion, die das Haar pflegt und langlebiger macht. Je häufiger Sie waschen, desto mehr muss der Körper nachfetten.

Wie sind nur unsere Vorfahren vor 10.000 Jahren ohne L’Oreal-Produkte ausgekommen? Zugegeben, die sahen damals sicher nicht so elegant aus wie meine Frau heute, die auf L’Oreal-Produkte schwört. Aber ich habe das Gefühl, dass diese Mode sicher nicht besonders gesund ist. Wenn Sie als Leser jetzt auf das tägliche Haarewaschen bestehen, sei Ihnen das natürlich zugestanden. Denn frisch gewaschene Haare sehen natürlich immer am besten aus. Die gesundheitlichen Folgen muss sicher jeder für sich abwägen.

Aber darum soll’s hier nicht gehen. Erstaunlich ist doch, dass es sich in der Bevölkerung als Grundgesetz der Haarpflege eingeprägt hat, dass tägliches Waschen absolute Pflicht ist. Dass hier Ursache und Wirkung verwechselt werden, ist uns allen scheinbar nicht klar.

Zum Glück geht es nur um so banale Dinge wie Haarewaschen. Ginge es um berufliche Sachverhalte würden wir spätestens durch eine Befragungsstudie herausfinden, wohin der Hase läuft. Oder?

Wenn Profis nach Ursachen forschen

 

Wenn Profis auf die Suche nach Ursachen gehen, dann werden meist Zahlen verglichen. Worin unterscheiden sich Erfolgreiche von nicht Erfolgreichen? Korreliert die eine oder andere Eigenschaft mit dem Erfolg?

Gleich am Anfang dieses Buches möchte ich das große Geheimnis offen legen: Diese Methoden sind größtenteils unbrauchbar und darüber hinaus oft gefährlich.

Vergleichen wir einmal die Vornamen von erfolgreichen und weniger guten Schülern in Chicago. Wir finden höchst signifikante Ergebnisse. Erfolgreiche heißen Judy wohingegen weniger erfolgreiche Britney heißen.[1] In Deutschland heißen die weniger erfolgreichen Justin und die Durchstarter Maximilian. Der Hintergrund dürfte dem geneigten Leser klar sein. Das Phänomen ist unter dem Begriff Scheinkorrelation bekannt.

Ein anderes Beispiel für solche Scheinkorrelationen ist das angeblich sinkende Durchschnitts-Einkommen der deutscher Ärzte, welches vor einigen Jahren festgestellt wurde.[2] Diese Zahlen werden dann natürlich nur zu gern von der jeweiligen Lobby genutzt und kausal interpretiert. Der wahre Hintergrund der Zahlen war jedoch ein anderer. Tatsächlich stieg das Einkommen der angestammten Ärzte. Da jedoch deutlich mehr junge Ärzte approbiert worden waren, die naturgemäß deutlich weniger verdienen, riss dies den Durchschnitt in den Keller.

Ist dies ein Beispiel, das nichts mit der Realität in Unternehmen zu tun hat? Wir werden noch sehen, dass jedes Controller-Reporting und jede Bilanz voll mit diesen Scheineffekten ist. Fakten sagen nichts über Ursachen. Daher ist jeder Satz über eine Bilanz oder einen Controller-Report, welcher eine Aussage mit „weil“ ableitet, höchstwahrscheinlich haltlos.

Vergleichbare Beispiele gibt es zahllose. Beispielsweise steigt das Einstiegseinkommen für Universitätsabsolventen statistisch gesehen mit der Studiendauer.[3] Wie bitte? Ich Dussel habe mich mit dem Studium beeilt und jetzt das. Hätte ich doch lieber das Studentenleben ausgiebig genossen. Stopp! Natürlich hat auch diese Statistik einen Haken. Sie würfelt Apfel und Birnen zusammen. Genauer werden BWLer, Physiker oder Chemiker zusammen betrachtet. Physiker studieren aber grundsätzlich länger und noch länger tun es Chemiker. Dafür sind die Einstiegsgehälter für Chemiker auch erheblich höher als für BWLer. Betrachtet man die Korrelation von Einstiegsgehalt und Studiendauer innerhalb eines Studienfaches stimmt die Richtung wieder. Die Schnelleren verdienen mehr.

Oder nehmen wir Gesundheitsstatistiken. Interessant ist z.  B. die steigende Krebsrate. 26 % aller Menschen sterben heute durch Krebs. Vor 100 Jahren waren es nur 10 %. Warum nur steigt die Bedrohung durch Krebs, obwohl die Krebstherapeutik so viele Fortschritte macht? Es sind bestimmt die Nahrungsergänzungsmittel oder die Atomkraftwerke überall. Nicht ganz: Menschen werden immer älter. Krebs hingegen ist auch einfach eine Alterserscheinung. Die Chance, einen Krebsbefund zu bekommen, ist heute (im vergleichbaren Alter) vermutlich geringer als früher und die Chance, diesen zu überleben, ist so hoch wie nie.[4] Fakten sind nur Fakten und sagen allein erst mal absolut nichts über Hintergründe.

Um beim Thema zu bleiben. Intensive Studien haben gezeigt, dass lange Chemotherapien mit höherer Sterblichkeit der Patienten einhergehen. Aufgrund dieser Zahlen haben sich sogar einige „Wissenschaftler“ dazu hinreißen lassen, eine geringe Chemotherapiezeit vorzuschreiben. Doch schaut man etwas tiefer hinter die Hintergründe, wird einem schnell klar, wie viele Menschenleben eine solche Empfehlung kosten kann.[5] Nun ist es so, dass bei der Therapie eine Maximaldosis vorgegeben ist. Bei besonders schwerwiegenden Fällen muss man, um erfolgreich zu sein, einfach eine längere Therapie durchführen. Die höhere Sterblichkeit ergibt sich nicht aus der Therapiedauer, sondern aus der Größe des Tumors zu Beginn der Therapie. Früherkennung ist die richtige Schlussfolgerung.

Eine andere Studie aus Schweden zeigte, dass Familien mit PVC-Fußböden in hoch signifikanter Weise mehr Kinder mit Asthma-Beschwerden haben. Bevor PVC-Fußböden vollends verboten wurden, fanden kritische Praktiker heraus, dass die Eltern PVC-Fußböden verlegen ließen, WEIL ihre Kinder Asthma hatten.[6] So konnte der anfallende Staub besser beseitigt werden.

Fakten sagen eben nichts über das Warum. Vor allem dann nicht, wenn die Zeit ihre Finger im Spiel hat. Die Ursache passiert immer vor der Folge. Daher lohnt es sich immer, die zeitliche Abfolge im Blick zu behalten. Ein schönes Beispiel, wie uns die Korrelation von Zeitreihen ein Schnippchen schlagen kann, hat Levitt in seinem Bestseller „Freakonomics“ beschrieben.

Anfang der 90er-Jahre war die Kriminalitätsrate in den USA enorm hoch. Vermutlich ein Grund, warum ein Law-&-Order-Mann wie Giuliani zum neuen Bürgermeister von New York gewählt wurde. Schon nach kürzester Zeit schienen seine drastischen Restrukturierungsmaßnahmen in der Polizei Wirkung zu zeigen. Die Kriminalität sank drastisch. Kann man sich einen besseren Beweis für die Wirksamkeit von hartem Durchgreifen wünschen?

Die Antwort ist: Ja. Zeitreihen wie die Kriminalitätsrate oder die politische Ausrichtung von Regierungen haben Trends. Sie gehen entweder noch oben oder nach unten. Nimmt man genügend kurzen Zeitintervalle kann man nach Belieben Zusammenhänge reininterpretieren. So sanken in den letzten Jahren auch die Geburtenraten genauso wie die Storchenpopulation in Deutschland. Was sagt uns das? Bringt der Storch doch die Kinder?

In Freakonomics wird anschaulich geschildert, dass der Hintergrund des Kriminalitätsrückgangs, der im Übrigen in den ganzen USA zu verzeichnen war, vorwiegend auf die Legalisierung der Abtreibung im Jahre 1973 zurückzuführen ist. Junge werdende Mütter der Unterschicht, die oftmals alleinstehend waren, hatten nun die Möglichkeit, abzutreiben. Es wurden deutlich weniger Kinder in verarmte Unterschichtsfamilien geboren, die durch ihr Umfeld eine höhere Wahrscheinlichkeit hatten, später kriminell zu werden. Dieser Effekt machte sich dann bemerkbar als die Schicht der jungen kriminellen Erwachsenen Anfang der 90er wegbrach. Giuliani hatte einfach Glück gehabt und den Abwärtstrend der Kriminalität als seinen Verdienst uminterpretiert. So macht man Karriere!

Aber in der Wirtschaft kann so was zum Glück nicht passieren. Keine gestandene Führungskraft lässt sich von einfachem Gleichlauf von Zeitreihen beeindrucken. Oder doch?


 


[1] Levitt et al. in „Freakonomics”

[2]Krämer in „So lügt man mit Zahlen“, S.171

[3]Krämer in „So lügt man mit Zahlen“, S.167f

[4]Krämer in „So lügt man mit Zahlen“, S.171f

[5]Bosbach et al in „Lügen mit Zahlen“, S. 57f

[6] Bosbach et al in „Lügen mit Zahlen“, S. 55f

Veröffentlicht unter Kapitel 1 | Kommentare deaktiviert für 1. Alltagswissen und andere Mythen

2. Eine Management-Illusion

Die beschriebenen Alltagsmythen stehen für unsere Unfähigkeit, die Ursachen von Zielgrößen zu erkennen, welche mehr als eine Ursache haben – also solche Zielgrößen, die mehr als einen beeinflussenden Faktor besitzen. So wie der Orangensaft über mehrere Pfade auf überraschende Weise unser Abwehrsystem beeinflusst und nasse Haare keineswegs direkt Erkältung verursachen. Genauso wenig macht Bitterschokolade per se weniger dick.

Solche Regeln, d. h. solche Hypothesen, über Ursachen erlernen wir, wenn zwei Größen zusammen auftreten oder deren Ausprägungen in die gleiche Richtung zeigen. Wenn also eine Maßnahme mit dem Steigen einer anderen Größe einhergeht, so nehmen wir intuitiv Kausalität an. Dies ist exakt die Methode, nach der der Pavlowsche Hunde erlernt, dass die Glocke das „Essen bringt“ und daher der Speichelfluss schon mal auf Volltouren gebracht werden muss. Wie wir gesehen haben, führt diese Forschungsmethode regelmäßig in die Irre.

Doch was bedeutet das für das Management von Unternehmen? Sehen wir ähnliche Mythen wie oben beschrieben im Bereich des Managementwissens sowie den Teilbereichen der Betriebswirtschaftslehre? Wird Wissen dort so laienhaft aufgebaut, wie wir es in unserer Freizeit tun?

Ich möchte aus meiner eigenen Erfahrung als Manager und Unternehmensberater berichten. Urteilen Sie selbst, ob Ihnen das eine oder andere bekannt vorkommt.

Als Unternehmensberater war ich in einem Projekt in einer großen deutschen Regionalbank engagiert. Es ging darum, aus den Kundendaten Erkenntnisse zu gewinnen und daraus Strategien zur Kundenbindung, zum Churn-Management und zur Steigerung des Cross-Selling abzuleiten. Ein „bewährtes“ Vorgehen für das Identifizieren von Cross-Selling-Potenzialen war es bislang, Kunden mit erhöhtem Kontostand auf Kredite anzusprechen, da man eine starke Korrelation zur Kreditkaufwahrscheinlichkeit festgestellt hatte, d. h. Kunden mit hohem Kontostand hatten deutlich häufiger einen Privatkredit. Eine Treiberanalyse mit multivariaten Analyseverfahren[1] ergab jedoch eine Überraschung. Die Analyse ergab, dass der Kontostand einen negativen (!) Einfluss auf die Kreditwahrscheinlichkeit hatte. Wir waren verwundert. Können wir der Methode trauen? Eine intensivere Betrachtung der Ergebnisse zeigte, dass insb. der Bonitätsstatus der Person einen positiven Einfluss auf die Kreditwahrscheinlichkeit hatte. Da machte es bei uns Klick. Klar, Kredite bekommen Leute mit hoher Bonität. Diese Solvenz bekomme ich, wenn ich vermögend bin. Gleichzeitig, brauche ich jedoch tendenziell keinen Kredit, wenn ich doch noch genügend liquide Mittel besitze. Wir konnten also zeigen, dass die bisherige Targeting-Methode nicht nur ineffektiv, sondern kontraproduktive war.

 

Später als Sales & Marketing Manager eines Industrieunternehmens liefen mir weitere dieser Mythen über den Weg. Ich war erst ein paar Wochen on board und ich hört immer wieder: „Die Kunden im Pharmabereich, die haben gute Preise. Da müssen wir mehr machen und expandieren.“ Ein kritisches Wälzen der reichlich vorhandenen Transaktionsdaten brachte mich zu einer anderen Hypothese. Ich stellte fest, dass die Pharmakunden eher kleine bis mittlere Abnahmemengen aufwiesen. Im Vergleich zu anderen Kunden im Chemiebereich mit gleichen Abnahmemengen war im Preisniveau plötzlich kein Unterschied mehr feststellbar. Die Kollegen waren einer klassischen Scheinkorrelation aufgesessen. Das Preisniveau hatte nichts mit der Branche an sich zu tun, sondern war lediglich beeinflusst von der Tatsache, dass die Abnahmemengen in diesem Bereich klein waren.

Als Konsequenz wurde nicht lediglich ein unsinniges Vorhaben vermieden. Was passieren kann, wenn man keine Ursachenanalyse anfertigt, musste ich einige Jahre später am Marktverhalten unseres Wettbewerbers feststellen. Dieser hatte sein gesamtes Vertriebsteam ausgewechselt und nur noch begrenztes Know-how darüber, wie die Märkte funktionieren. Vermutlich machten die Kollegen auch Datenanalysen und stellten fest, dass der Markt der Pappfässer eine hervorragende Marge aufwies. Die fatale Schlussfolgerung der Kollegen war scheinbar „wir müssen in diesem Markt mehr machen – da kann man Geld verdienen.“ Gesagt, getan. Es wurden den Nichtkunden niedrigere Preise angeboten, um diese gewinnen zu können. Denn ohne herausragenden Wettbewerbsvorteil ist Preis der einzige Weg, um Marktanteile zu gewinnen. Der Marktanteil stieg. Die Reaktion der Wettbewerber ließ jedoch nicht lange auf sich warten. Am Ende lagen die Marktanteile wie zuvor, jedoch das Preisniveau am Markt war zerstört. Der Markt für Pappfässer war nicht deshalb profitabel gewesen, weil Kunden bereit waren, mehr dafür zu zahlen, sondern weil Wettbewerber aufgrund der Markthistorie und der Anbieterkonzentration gelernt hatten, wenig preisaggressiv aufzutreten.

Das Beispiel zeigt, dass Fakten allein keine nutzbringende Information enthalten. Was zählt, ist das Wissen über Ursache-Wirkungs-Zusammenhänge. Das Verständnis des Beziehungsnetzwerks im untersuchten Bereich ist Voraussetzung für richtige und gute Entscheidungen.

Dann war ich im gleichen Job mit dem Performance-Management des Vertriebs beauftragt. Dabei geht es darum, im Dialog diverse Kennzahlen zu prüfen und gemeinsam Verbesserungspotenziale aufzudecken und zu tracken. Wie in Unternehmen üblich, kamen regelmäßig auch von oberen Hierarchieebenen Anfragen wie: „Was ist im Bereich Garagenfass los? Die Gewinnmarge ist in diesem Monat eingebrochen. Ich brauche bis morgen eine Aufstellung, wo wir sofort Preise erhöhen können.“ Für die Klärung der Ursachen dieser Sachverhalte war es oft genug notwendig, die Transaktionsdaten bis auf den einzelnen Artikel und die einzelne Bestellung herunterzubrechen. Warum? Weil eine Kennzahl wie die aggregierte Gewinnmarge einer Produktgruppe so etwas ist wie das Einstiegsgehalt von Studenten. Man geht fast immer Scheinkorrelationen auf den Leim. Beispiel: Der Deckungsbeitrag war nur eingebrochen, weil ein Großkunde, der sehr niedrige Preise genoss, seine kompletten Bestellungen von letztem Monat auf diesen Monat verschoben hatte. So wurde der Vormonat besser und dieser Monat schlechter und die Differenz ganz besonders schlecht. Derlei Beispiele gibt es viele. Sie zeigen, wie gefährlich es ist, auf Basis von Kennzahlen (neudeutsch KPIs) Entscheidungen zu treffen. Im Kapitel „Umsetzen“ werde ich zeigen, wie man Kennzahlen aufbauen sollte, um einen wichtigen Teil der Scheinkorrelationen zu vermeiden.

Kennzahlen sind nur Fakten und haben für sich genommen keinen Informationswert. Das Warum ist von zentraler Bedeutung. Die ganze Ideologie des Fact-based-Management wird vor diesem Hintergrund in Frage gestellt. Fakten sollten nicht im Vordergrund stehen, sondern Wissen über Ursache-Wirkungs-Zusammenhänge. Knowledge-based-Management ist, was wir dringend brauchen.

Doch was bedeutet das für Controlling, Reporting und Performance-Management, die mit all diesen schicken Dashboards mit großer Sorgfalt in unseren Unternehmen aufgesetzt wurden? Und welche Konsequenzen hat es auf unsere Organisation und die Mitarbeiter? Mitarbeiter wissen es intuitiv, dass die Kennzahlen „was für die da oben“ sind, aber wenig mit der Realität zu tun haben. Aber steuern mit Kennzahlen schafft auch Realität. Wenn der Chef sagt, der Deckungsbetrag muss hoch, dann wird gehandelt. Koste es, was es wolle. Wenn der ROI steigen soll, schließt man einfach alle Geschäfte, die unterdurchschnittlich sind, auch wenn sie die Kapitalkosten decken und gutes Geld verdient wird. Zum Trimmen von Kennzahlen gibt es so viele Wege wie Ursachen. Nur diese Wege sind oft nicht im Sinne des Unternehmens.

Die alternativen Methode Beyond Budgeting setzt statt absoluter Kennzahlen Kennzahlen in Relation zum Beispiel zu externen Vergleichswerten. Der Gedanke ist gut, hat jedoch erhebliche Grenzen. Man möchte externe Faktoren aus Kennzahlen herauszurechnen. So betrachtet man z.  B. statt dem Gewinn den relativen Gewinn in Relation zum Wettbewerb. Ein Problem ist die Frage, wo man die Vergleichszahlen überhaupt herbekommt. Ist man in der glücklichen Informationslage, dass alle Daten vorliegen, schlittert man in das nächste Problem, wenn man bereits zwei externe Faktoren herausrechnen möchte. Wir werden im nächsten Kapitel sehen, wie man besser vorgehen sollte.

Wir stellen fest, dass das Ableiten von Maßnahmen auf Basis von üblichen Kennzahlen erhebliches Fehlleiten von Aktivitäten verursacht. Doch es geht noch schlimmer. Den meisten Führungskräften, die mit ihren Mitarbeitern die wichtigsten KPIs durchgehen, erging es schon des Öfteren so wie mir: Ich schaue mir beispielsweise den aktuellen durchschnittlichen Rohertrag (Preis minus Materialkosten) an und mir fällt auf, dass dieser gesunken ist. Da frag ich natürlich den verantwortlichen Außendienstmann: „Was war da los diesen Monat?“ Er antwortet: „Oh ja, die neuen Preise für Großkunde Fa. Müller gelten erst ab nächsten Monat. Ach ja, und die hochprofitablen ABC-Produkte wurden diesen Monat wegen fehlendem Bedarf nicht bestellt.“ Eine ziemlich schlüssige Begründung. Ich bin zufrieden. Plötzlich fällt mir auf, dass ich den falschen Zeitraum eingestellt hatte und mir die Zahlen vom letzten Jahr angesehen hatte. Die richtigen Zahlen zeigen nicht abwärts sondern sie steigen! „Äh sorry, mein Fehler. Warum steigt denn der Rohertrag?“ Daraufhin der Mitarbeiter: „Ja richtig, ich hab ja den neuen Kunden Fa. Meier an Land geholt und die restlichen Preiserhöhungen konnte ich gut durchdrücken.“

Was sagt uns das? Beobachten Sie einfach mal, wie Manager auf Fakten reagieren. Werden beliebige Zahlen oder andere Fakten präsentiert, so wird sofort eine Story darüber gesponnen, wie diese Zahlen zustande gekommen sind. Es ist wie ein Reflex. Ich kann selbst nicht anders. Nur mit dem Unterschied, dass fast alle tatsächlich daran glauben, dass das, was sie sich an Mutmaßungen aus den Fingern saugen, mit hoher Wahrscheinlichkeit richtig ist. Es ist frappierend. Wir finden immer eine Begründung für eine Zahl oder einen Fakt. Leider immer erst hinterher. Vorher weiß es keiner. Die Finanzkrise 2008 hat kaum jemand kommen sehen – vor allem nicht die Presse. Jetzt im Nachhinein findet die Presse schnell die Schuldigen. Wenn es so offensichtlich war, warum hat denn keiner dieser Schreiberlinge vorher davor gewarnt? Das ist alles nur haltloses Storytelling im Nachhinein. Es enthält keinerlei nützliches Wissen. Daher ist es auch gefährlich, sich zu sehr mit diesem „Rauschen“ (wie Nachrichtentechniker sagen) zu beschäftigen. Es führt geradewegs zum Kaffeesatzlesen und zu sich verfestigendem falschem Wissen.[2]

Die Welt des Managements ist übervoll von gehaltlosem Storytelling. Schauen Sie sich allein die Managementliteratur an. 80 Prozent der Bücher funktionieren wie folgt: Es werden Fallbeispiele genannt von erfolgreichen Unternehmen und dann wird interpretiert, warum diese erfolgreich waren. Das Vorgehen ist eine Mischung aus einer guten Selektion der richtigen Beispiele und dem Weglassen der Gegenbeispiele sowie Storytelling über die Ursachen. Meinen persönlichen Aha-Effekt hatte ich in einer Zeit, bevor ich beschlossen hatte, keine Fehlinformationen durch Managementbücher in mich aufzunehmen. Ich las erst „Wachsen ohne Wachstumsmärkte“ von Slywotski/Wise, in dem wunderbar beschrieben ist, wie wertvoll es sein kann, durch Vorwärtsintegration sich in die Prozesse des Kunden einzugraben. Eines der Paradebeispiele war die Firma Cardinal Health. Dies ist ein großer Pharmagroßhändler mit 80 Milliarden Umsatz, der durch diverse Produkte und Services sich tiefer in die Prozesse der Krankenhäuser und Apotheken eingrub. Stolz wandte ich mein neu angelesenes Wissen in einem internen Strategieworkshop an, indem ich mich auf Cardinal Health bezog. Ein Kollege konterte: „Warte mal, Cardinal Health geht es derzeit gar nicht gut. Die haben zu viele Geschäftsfelder adressiert, die zu weit von deren Kernkompetenzen lagen. Das alles kannst du prima im Buch ,Beyond the Core‘ von Chris Zook lesen. Denn dort ist Cardinal Health als Negativbeispiel genannt worden.“

Beispiele sind schöne Illustrationen, um Konzepte verständlich zu machen. Sie können jedoch niemals als Indiz oder Beweis dienen. Warum? Weil die Dinge mehr als ein oder zwei Einflussgrößen haben. Weil das so ist, können wir nicht durch Vergleiche von lediglich zwei Größen Schlussfolgerungen über Ursache-Wirkungs-Zusammenhänge schließen.

Andere Beispiele für falsches Management-„Wissen“ gibt es zur Genüge. Das PIMS-Projekt hat viele davon aufdecken können. PIMS ist eine Datenbank, in der seit den 1970ern über 70 relevante Ursachen für den Return-On-Investments (ROI) einer Unternehmenseinheit gesammelt werden. Es ist vermutlich die einzige Datenbank, mit der der ursächliche Einfluss von Marktstrategien auf die Unternehmensprofitabilität wissenschaftlich valide untersucht werden kann.

Das typische Vorgehen in den Strategiestäben der Unternehmen ist ungefähr wie folgt: Lasst uns anschauen, welche Märkte am meisten wachsen (Megatrends), welche Märkte groß sind und wo man gutes Geld verdienen kann (Marge). PIMS hat gezeigt, dass dieses hochplausible Vorgehen irrelevant und teilweise gefährlich ist. Vermutlich, weil es so plausibel ist und jeder so handelt. Tatsächlich ist es immer eine schlechte Idee in einen zu großen Markt einzusteigen, da man selbst nicht schnell genug kritische Masse erreich kann. Märkte, die klein genug sind, um darin Marktführer zu werden, sind erheblich attraktiver. Weiterhin ist es absolut irrelevant, nach dem heutigen ROI zu schauen. Was einzig und allein zählt, ist der potenzielle ROI. Profitable Geschäfte sind nun mal auch teuer zu erwerben. Oder wenn man durch Investition in eigene Kapazitäten in ein Geschäftsfeld einsteigen will, zerstört man womöglich den Grund für die Profitabilität (siehe Pappfässer-Beispiel). Nicht zuletzt ist auch die Marge, d. h. der EBIT, so gut wie irrelevant (so lange der positiv ist), denn was zählt, ist das Verhältnis von gebundenem Kapital zum Ergebnis (auch ROI genannt). Geschäfte wie PC-Direkthändler (z.  B. DELL) verdienen ihr Geld nicht mit hoher Marge, sondern damit, dass kein Kapital im Geschäft gebunden ist, weil die Kunden alles vorschießen. Der Kunde zahlt zuerst und erst dann werden Einzelteile eingekauft, PCs zusammengesteckt und ausgeliefert. Aldi hat vermutlich einen sehr hohen ROI, u. a. weil – verursacht durch die geringe Produktvielfalt – Artikel nur wenige Tage im Regal liegen bleiben.

Ein anderer Mythos. den PIMS aufgedeckt hat, ist die Verallgemeinerung, dass die Kundenmacht (analog Porter) möglichst klein sein sollte. PIMS hat einen U-förmigen Zusammenhang nachgewiesen. Wenn die Kundenanzahl eines Unternehmens einstellig wird, beginnt der Zusammenhang sich umzukehren. Denn in vielen Fällen hat die Abhängigkeit dann einen Hintergrund – sie ist symmetrisch. Beide Partner brauchen sich. Der Lieferant liefert besondere Leistungen, der Kunde gibt durch einen guten Preis ein Teil der Wertschöpfung ab.

Die Beispiele illustrieren folgende Punkte:

  • Die deskriptive Analyse von Fakten führt oft zu falschen Erkenntnissen.
  • Menschen neigen dazu, Ursachen auf Basis von Fakten buchstäblich zu erfinden und durch Storytelling plausibel zu machen.
  • Eine natürliche Folge von falschen Analysen und dem Weitergeben von willkürlich entwickeltem Wissen ist das Entstehen von Mythen. Es kann nachgewiesen werden, dass vieles des verbreiteten Management-Wissens falsch ist. Ein anderer Teil des Wissens ist so vage, dass er nicht widerlegbar (wissenschaftstheoretisch inhaltsleer) und daher unbrauchbar ist.

In den 80er Jahren entstand aus dem Bereich der sehr nützlichen Systemorientierten (Kybernetischen) Managementlehre unter anderem die Forderung nach komplexerem und vernetzterem Denken. Der Hintergrund war die Feststellung, dass Zielgrößen im Management viele Ursachen und Treiber haben und gegenseitig vernetzt sind, d. h., dass indirekte Wirkeffekte und Rückkopplungen existieren. Fest steht, dass ein adäquateres, elaborierteres Denken sicher nicht schaden kann. Mein Punkt in diesem Buch wird sein, dass elaborierteres Denken nicht ausreicht, um Komplexität zu managen. Es kommt darauf an, richtiges und gutes Wissen zu bilden. Hierfür benötigen wir Menschen geeignete Werkzeuge.

Dieterich Dörner hat in diesem Zusammenhang untersucht, wie Menschen komplexe Systeme managen können. Er baute einfache mathematische Modelle über die ökonomischen Zusammenhänge in einem Land auf und bat Probanden, dieses Land im Rahmen eines Planspiels zu managen und den Wohlstand zu mehren. Dabei kannten die Probanden die tatsächlichen Ursache-Wirkungs-Beziehungen nicht. Im Ergebnis stellte Dörner fest, dass wir Menschen erhebliche Probleme haben, komplexe Systeme zu managen. Nur gute Probanden erlernten es erst nach vielen Spieljahren, indem Sie systemischer dachten und Zeitverzögerungen einkalkulierten.

Was lernen wir daraus? Zwar ist vernetztes Denken nützlich, jedoch haben Manager keine fünfzig Jahre Zeit die Ursache-Wirkungs-Beziehungen zu erlernen. Daher ist es in vielen Fällen überhaupt nicht möglich, durch simple Managementerfahrung gutes Wissen aufzubauen. Darüber hinaus ist die Realität weit komplexer als diese einfachen Planspiele. Kurzum, es gibt erhebliche Grenzen, valides Wissen über komplexe Systeme abzuleiten – insofern man keine geeigneten Werkzeuge zur Verfügung hat.

Um dies plastisch zu machen, möchte ich hier die Komplexitätsmatrix einführen.

Dimension 1 ist die „Anzahl der beeinflussenden Größen“: Je mehr Dinge auf die zu steuernde Größe zur gleichen Zeit Einfluss nehmen, desto schwieriger ist es, auf Basis von Erfahrungswerten Wissen abzuleiten.

Dimension 2 ist die „Zeit“ die zwischen Ursache und Wirkung vergeht. Je länger man warten muss, bis ein Ergebnis sich einstellt, desto eher wird man durch Folgen anderer Ursachen abgelenkt und desto länger braucht es, bis Wissen aufgebaut ist.

Einfache Probleme mit schneller Rückmeldung können wir durch normales menschliches Lernen gut bewältigen. Beim Autofahren beispielsweise bekommen wir direkte schnelle Rückmeldung und die Treibergrößen sind mit Gas, Bremse und Lenkrad schnell beschrieben.

Nehmen wir ein Problem, bei dem man schnell Rückmeldung bekommt, bei dem aber mehr Größen vorhanden sind: „Wie wirkt ein Plakat?“ Hier zeigt man es Kunden und nimmt die Rückmeldung auf.[3] Jetzt kann ich Teile des Plakats ändern und schauen, was das verursacht. Sicher gibt es viele Ursachen, die ein Plakat wirkungsvoll machen. Das geht von der Bildgestaltung und den verbundenen diversen Assoziationen über die Anordnung hin zur inhaltlichen Ausrichtung, Typographie und Verwendung von emotionalisierenden Kern-Visuals. Daher ist das Thema sicher hochkomplex. Wenn ich jedoch einige Faktoren fixiere und so die Komplexität reduzieren, kann ich durch ein gutes Experimentaldesign herausbekommen, welche Treiber welchen Einfluss haben.

Probleme mit langer Feedbackzeit sind problematischer. Wie lange braucht es, bis ein Produktlaunch seinen Erfolg zeigt? Je nach Industrie kann das viele Monate in Anspruch nehmen. Der Erfolg hingegen hat viele, sehr viele Väter. Wenn man die Treiber mit Experimenten erforschen möchte, kann man nicht nur viele Jahrzehnte verbringen, sondern auch Unmengen an Geld verschleudern. Hier wird man vermutlich andere Methoden verwenden müssen, um die Erfolgstreiber besser zu verstehen.

Als Daumenregel gilt: Je mehr Ursachen eine Zielgröße hat und je länger es dauert, bis sich Erfolge einstellen, desto eher müssen wir externe Werkzeuge verwenden, um das Problem aktiv managen zu können. Und dann gibt es natürlich auch Grenzen der Erkenntnis. Hochkomplexe Systeme mit langer Rückmeldezeit werden wir eventuell nie verstehen. Zumindest solange wir keinen Weg finden, das Problem in einfachere Teilprobleme zu unterteilen.

Lassen Sie uns Unternehmensfunktionen einmal entlang der Dimensionen bewerten:

  • Mittlere Variablenanzahl und kleines Timelag: Produktion, IT, Verwaltung
  • Viele Variablen und größeres Timelag: Einkauf, Verkauf, Marketing,    HR/Personalführung, Unternehmensführung 

Unternehmensbereiche, deren Aufgabe es ist, die Interaktion mit sozialen Systemen zu managen – seien es die eigene Belegschaft, die Kundenmärkte oder die Lieferantenmärkte – sehen sich einer hohen Komplexität und eher großen Timelags ausgesetzt. In diesen Bereichen haben Zielgrößen viele Ursachen.

Beispielsweise kann „Steigende Gewinne eines Unternehmens“ tausende Ursachen haben: höhere Preise, profitablerer Produkt-Mix, steigende Verkaufsmengen, sinkende Stückkosten oder sinkende Fixkosten. All diese Bereiche sind eigentlich Aggregate und keine wirklichen Ursachen. Eine Ursache wäre ein preisaggressiv auftretender Wettbewerber oder die Einführung eines Neuprodukts, das besser ist als das des Wettbewerbers, oder eine Vertriebsmannschaft, die mehr Kundenbesuche macht. Ursachen sind daher immer Aktivitäten, weniger aggregierte Teilergebnisgrößen.

Im Gegensatz dazu sind technische Systeme (wie Produktion, IT oder Verwaltungsaufgaben) prinzipiell simpler, weil man sie in Teilsysteme zerlegen kann und diese zumeist sehr schnell Rückmeldung geben. Man merkt schnell, ob Maßnahmen die gewünschten Folgen zeigen. Daher kann man schneller und präziser lernen und richtiges und gutes Wissen aufbauen.

Die Unternehmensfunktionen Management, Einkauf und Verkauf arbeiten heute mit tendenziell falschem und schlechtem Wissen. Dies ist nicht die Schuld der Leute, die darin tätig sind. Die Bereiche sind komplexer und daher schwieriger zu managen. Das Fatale ist jedoch, dass unsere Unfähigkeit, richtiges Wissen zu erlernen, auch gleichzeitig unsere Unfähigkeit ist, dies zu bemerken.

Mit unserem Storytelling finden wir immer eine plausible (aber haltlose) Theorie darüber, wie sich bestimmte Fakten erklären. Nur scheint dies niemandem aufzufallen. Es entsteht eine Illusion von Kompetenz und eine Illusion, alles im Griff zu haben. Es entsteht die Management-Illusion.

 


[1] Mehr dazu im nächsten Kapitel

[2] Eins ist mir wichtig: Ich möchte hier niemanden anklagen. Es ist, wie es ist, weil unser Ausbildungssystem den Stand hat, wie es ihn hat. Trotz alledem sollten wir an den offensichtlichen Verbesserungsfeldern arbeiten.

[3] Auf die Beschreibung diverser Marktforschungstechniken zur validen Messung gehe ich hier nicht ein.

Veröffentlicht unter Kapitel 2 | Kommentare deaktiviert für 2. Eine Management-Illusion

3. Mit richtigen Methoden Ursachen aufspüren

Bislang haben wir eine Bestandsaufnahme gemacht. Die Fähigkeit von Menschen, aus Erfahrungen Wissen abzuleiten, beschränkt sich im Grunde auf die Prinzipien der Konditionierung. Parallel auftretende Dinge werden miteinander assoziiert und kausal in Zusammenhang gebracht. Die Lernmethode der Konditionierung funktioniert in einfachen Umgebungen auch recht gut. Sie hat zwar auch zum Entstehen von Aberglauben und anderen Mythen geführt, aber für die simplen Dinge des Überlebens ist die Methode sehr wirkungsvoll. Wenn es blitzt, ist der Donner nicht weit. Sieht man den frischen Fußabdruck einen Schweins, könnte dies noch in der Nähe sein. Jedoch führt die Methoden auch zu unsinnigem „Wissen“: Viele Fußballfans schauen sich nicht das Spiel der Lieblingsmannschaft an, weil sie glauben, dass dies Unglück bringt. „Beim letzten Mal, als ich das Spiel verpasst habe, haben wir gewonnen.“ Genauso rasieren sich viele Spieler nicht, weil damit eine höhere Siegchance vermutet wird.

In komplexeren Bereichen wie sozialen Systemen führen uns unsere Lernmethoden regelmäßig in die Irre. Diese Erkenntnis ist noch nicht Allgemeinwissen geworden. Denn das Erleben der Manager gibt nur bedingt Hinweise darauf. Man findet ja immer – im Nachhinein – Gründe, warum Dinge so passiert sind. Aber das Erleben ist trügerisch, weil es denselben einfachen Regeln des Lernens folgt. Warum soll man auch die Art und Weise, zu lernen und zu managen, ändern, wenn man doch bislang einigermaßen erfolgreich war?

Die Antwort liegt im Relativitätsprinzip der Wirtschaft. Es kommt nicht darauf an, richtig zu liegen, schnell, billig oder schlau zu sein. Es kommt lediglich darauf an, besser zu sein als andere. Schlechte Ursachenanalysen sind nur ein Problem, wenn andere besser sind. Der Einäugige ist unter den Blinden König.

Vor diesem Hintergrund stellt sich die Frage: Welche immensen Potenziale könnten wir anzapfen, wenn es uns gelänge, die wahren Erfolgstreiber auch und gerade in komplexen Sachverhalten zu ermitteln? Wie könnte ich meinen Gewinn steigern, wenn mein Unternehmen als einziges ermitteln könnte, welche spezifischen Hintergründe hinter dem kürzlich stattgefundenem Umsatzrückgang steht? Wie schlagkräftig könnte ich mit wenig Budget meine Kunden binden und vor dem Abwandern zur hungrigen Konkurrenz retten, wenn ich als Einziger des Kunden wirkliche „erogenen Zonen“ identifizieren kann? Wie viel profitabler und wachstumsstärker würde mein Unternehmen, wenn ich als Einziger wüsste, welche 50 % der Werbeausgabe bislang vergeudet werden? Welche Anziehungskraft würde mein Unternehmen für Talente und High Potenzials entfalten, wenn ich im Kern wüsste, welche versteckten Hebel neben dem Gehalt für diese faktisch relevant sind? Welche Gewinnmargenexplosion könnte ein produzierendes Unternehmen auslösen, wenn durch bessere Vorhersage von Rohstoffpreisentwicklungen deutlich billiger mit weniger Kapitalbindung eingekauft würde?

Die zentrale Bedeutung von brauchbaren und zuverlässigen Wissen scheint evident. Ziel muss es also sein, Methoden zu finden und einzusetzen, mit denen es möglich ist, das benötigte Wissen zu erlangen.

Darum lassen Sie uns schauen, welche Methoden wir zur Verfügung haben.

Der Rohstoff des Lernens sind Erfahrungswerte. Lernen bedeutet Wissen gewinnen. Erfahrungswerte sind lediglich Fakten, Zahlen, Erlebnisse. Immanuel Kant hat den Satz geprägt: „Erfahrung ist die einzige Quelle der Erkenntnis.“ Wenn wir nicht auf Erfahrungen aufbauen, dann bauen wir auf vorhandenem Wissen bzw. Annahmen auf. Diese sind zuvor auch nur durch Erfahrungswerte gebildet worden. Jedoch ist das vorhandene Wissen, wenn es konventionell erworben wurde, wie beschrieben chronisch verzerrt oder einfach falsch. Daher sind Methoden zum besseren Erlangen von Wissen immer Methoden, die intelligenter mit Fakten, Zahlen und Erlebnisberichten umgehen.

Wenn ich von Wissen spreche, meine ich wie beschrieben nicht Zahlen und Fakten. Das sind für mich Informationen bzw. Daten – jedoch kein Wissen. Unter Wissen verstehe ich die Kenntnis von Ursache-Wirkungs-Relationen. Ich verstehe darunter, dass man weiß, welche Maßnahme zu welchem Ergebnis beitragen wird. Dieses Wissen über Ursache-Wirkungs-Relationen kann man nur erlangen, indem man über Beispiele lernt, dass bestimmte Maßnahmen mit bestimmten Folgen einhergehen. Man muss also Input und Output beobachten, um dann das Wissen ableiten zu können.

Welche Methode kann man verwenden? Wie steht es beispielsweise mit geschicktem Aufbereiten von Erfahrungswerten? Da ist zum einen der Gruppenvergleich. Der geht so: Wie unterscheiden sich erfolgreiche von nicht erfolgreichen Unternehmen in der Ausprägung der möglichen Erfolgstreiber? Hier sieht man beispielsweise, dass erfolgreichere im Schnitt größer sind, eher ein ERP-System haben oder eine R&D-Budget. Sagt das irgendetwas über Erfolgsursachen? Vielleicht sind es Folgen. Vielleicht sind es Resultate anderer Treiber wie etwa der Unternehmenskultur. Wenn es keine Treiber sind, dann wird die aktive Steuerung der Größen nicht den gewünschten Effekt bringen.

Das Gleiche gilt für sogenannte Korrelationsanalysen. Diese berechnen den Gleichlauf zwischen zwei Variablen und liefern ähnliche Ergebnisse wie die Gruppenvergleiche.

In der folgenden Grafik sind Ergebnisse aus der Kosmetik-Industrie beispielhaft dargestellt.

Dargestellt sind Erfolgstreiber von Pflegeproduktmarken. Ein schneller Blick zeigt hier, dass Korrelationen (links) in diesem Fall kaum irgendetwas über die Realität erzählen, wenn Sie diese mit den Ergebnissen einer geeigneten mehrdimensionalen Ursachenanalyse vergleichen.

Vergessen Sie Korrelationen. Vergessen Sie Gruppen und sogenannte Top2-Vergleiche. Vergessen Sie simples Benchmarking. Es sagt einfach nicht viel über Ursachen. Wir haben auch im vorherigen Kapitel viele andere deskriptive Beispiele gesehen. Egal wie intelligent ich Fakten aufteile oder aggregiere, es ist so nicht möglich, die partiellen Einflüsse zu separieren.

 

Kontrollierte Experimente

Eine wirklich funktionierende Methode, gutes Wissen über Ursache-Wirkungs-Zusammenhänge zu erhalten, ist das Experiment. Ausprobieren ist die bewährte Technik, die die Evolution verwendet. Hochkomplexe Lebewesen sind so entstanden – und dies in einer Komplexität und Leistungsfähigkeit, die wir Menschen mit heutiger Technik noch immer nicht nachbauen können. Genauso wie die biologische Evolution funktioniert auch die Evolution von Wissen, Wertesystemen, Glaubensrichtungen und Legenden. Solche, die weitergeben werden und sich somit reproduzieren, überleben. Der große Haken an der Evolution ist, dass sie sehr lange dauert. Der zweite Haken ist, dass manche Fehlversuche drastisch bestraft werden. Die Evolution führt langfristig zu guten Ergebnissen für die Gesellschaft. Braucht man aber als Individuum oder als einzelnes Unternehmen gutes Wissen, muss man vorsichtiger vorgehen, um der Evolution nicht zum Opfer zu fallen. Ausprobieren hat seine Grenzen.

Das Experiment an sich ist jedoch grundsätzlich die beste Methode, um etwas über Ursache-Wirkungs-Zusammenhänge zu lernen. Wenn immer es möglich ist vor dem Hintergrund der damit verbundenen Kosten und Risiken, sollte man Experimente anderen Methoden vorziehen. Denn wenn zwei Größen konsistent korrelieren und eine davon durch die eigene Maßnahme hervorgerufen wurde, dann ist ein kausaler Zusammenhang sehr wahrscheinlich. Praktisch gesprochen: Wenn ein Hammer auf mein Finger fällt, könnte es ja auch sein, dass der sich unbemerkt anbahnende Schmerz den Hammer magnetisch anzieht, sodass der Schmerz die Ursache ist und nicht das Ergebnis. Wenn ich den Hammer bewusst auf meinen Finger schlage, zu einem Zeitpunkt, den ich willentlich gewählt habe, dann ist der darauf folgende Schmerz sehr wahrscheinlich durch den Hammer verursacht und nicht umgekehrt. Experimente kontrollieren die Wirkungsrichtung der möglichen Ursachen.

Das Experiment ist auch eine gute Methode, um die Effekte, die mehrere Treibergrößen haben, voneinander zu trennen. Denn genauso, wie man eine Ursache aktiv verändern kann, um die Wirkung zu beobachten, so kann man zeitgleich eine zweite Ursache konstant halten.

In der Tat gibt es einige Bereiche in der Wirtschaft, in denen des Öfteren mit Experimenten gearbeitet wird. Werbetests sind ein typisches Beispiel. Plakate oder Anzeigenwerbung werden in Teststudios getestet und variiert, bevor sie gelauncht werden. Auch die Messung von Kundenpräferenzen wird regelmäßig in so genannten Conjoint-Measurement-Experimenten durchgeführt. Hierbei variiert man systematisch die Eigenschaften eines Produktes in der Produktbeschreibung und fragt den Kunden inwieweit er dieses Produkt gegenüber Vergleichsprodukten bevorzugt. Sowohl Plakattests als auch Conjoint-Experimente sind quasi Trockentests, da sie keine Tests in der Realität darstellen. Das Vorgehen büßt zwar an Validität ein, ist aber so erheblich günstiger als ein Live-Test.

Solche Live-Tests sind üblich beim Optimieren von großen Direct-Mailing-Kampagnen. Objekt der Optimierung ist hier zum einen die Gestaltung des Anschreibens und zum anderen die Selektion der anzuschreibenden Kontakte. Denn in Direkt-Mailing-Kampagnen werden die Briefe nicht an alle Kontakte in der Datenbank geschickt, sondern nur solche, die eine hohe Responsewahrscheinlichkeit haben. Indem man nun auch einige Mailings an zufällig (oder strukturiert) ausgewählte Kontakte sendet, bekommt man durch den Rücklauf eine Kontrollgröße, die es erlaubt, eine Schätzung der Antwortwahrscheinlichkeit zu optimieren. Jeder Brief an einen zufällig (oder strukturiert) ausgewählten Kontakt ist ein Experiment.

Aber auch in anderen Bereichen sollte man Experimente in Erwägung ziehen, wie z.  B. Standortwahl, die Art und Weise, wie man im Vertrieb auftritt, oder bei der Entwicklung neuer Angebote.

Worauf sollte man bei der Durchführung von Experimenten achten?

  • Schritt 1: Alle zentralen Erfolgsgrößen aus bisherigem Wissen zusammentragen

Bei einem Experiment geht es darum, die Effekte verschiedener Ursachen zu bewerten und zu separieren – also voneinander zu trennen. Eine Ursachenanalyse ist immer nur dann valide, wenn alle Ursachen kontrolliert, d. h. gemessen, gesteuert oder konstant gehalten werden. Daher ist es immer notwendig, sich vor einem Experiment Gedanken darüber zu machen, welche Ursachen es möglicherweise geben könnte.

Ich werde oft gefragt: „Was ist, wenn ich eine wichtige Ursache vergesse?“ Die Antwort ist einfach: Es gibt keine Alternative zu diesen Methoden der Analyse von Ursachen-Wirkungs-Zusammenhängen. Wenn wichtige Faktoren fehlen, haben wir zwar die Gefahr, einige Scheinerkenntnisse zu erhalten, aber positiv ausgedrückt haben wir die besten Erkenntnisse, die man in diesem Moment erlangen kann. Der Prozess der Ursachenanalyse wird immer unvollständig und fehlerhaft bleiben. Es ist philosophisch gesehen unmöglich, die Realität in Perfektion zu verstehen. Darum geht es auch nicht. Es geht immer nur darum, weniger Fehler zu machen. „Weiter wie bisher“ bedeutet, mehr Fehler zu machen und mehr Geld „zu versenken“.

  • Schritt 2: Experimental-Design erstellen:

Sind alle Treiber bzw. möglichen Ursachen bekannt, gilt es die Treiber systematisch zu variieren, um den Effekt, den jeder einzelne Treiber verursacht, herauszufinden. Des Weiteren gibt es externe Ursachen, die man nicht selbst variieren kann. Diese muss man zumindest messen, um hinterher zu kontrollieren, ob ein Effekt ggf. durch einen parallel laufenden externen Faktor verursacht wurde.

Haben die Ursachen nur zwei grundsätzliche Ausprägungen wie „niedrig und hoch“ oder „ja und nein“, so kann man bei N Ursachen die Anzahl der Ursachenkombinationen für die Messung ihrer alleinigen Wirkung auf N+1 begrenzen. Will man Interaktionen zwischen Ursachen miterfassen, so ergeben sich mehr Kombinationen. Als Interaktion bezeichnet man die Tatsache, dass eine Ursache die Art und Weise, wie eine andere Ursache wirkt, beeinflussen kann.

Ein typisches Beispiel: Die Erfolgsfaktoren für das Wachstum einer Pflanze sind Wasser und Sonne. Wasser allein hat keinen positiven Einfluss, solange kein Licht vorhanden ist. Ist zu viel Sonne da, verbrennt die Pflanze; auch wenn reichlich Wasser da ist. Die beiden Erfolgstreiber beeinflussen sich gegenseitig in ihrer Wirkung.

Will man die Interaktionen von zwei Treibern messen, ergeben sich N2 (jeder mit jedem) weitere Kombinationen. Man merkt schon, dass sich bei vielen Treibern eine hohe Komplexität ergibt.

Noch schlimmer wird es, wenn die Treiber mehr als nur zwei Zustände (ja/nein) annehmen können. Dann steigt die Komplexität zu stark, sodass man Interaktionen nur noch sehr selektiv begutachten kann. Auch für die Analyse der separaten Einflüsse je Treiber, muss man höhere Mathematik anwenden. Man erstellt dann so genannte orthogonale Designs. Für weiterführende Informationen dazu empfehle ich die Lektüre des Buchs „Testing 1-2-3“ von Ledolter/Swersey.

  • Schritt 3: Durchführen, Wiederholen und Auswerten:

Steht das Design, geht es in die Durchführung. Hierbei geht es u. a. darum, dies „sauber“ zu tun. Als Negativbeispiel fällt mir das berühmte „zählende Pferd“ ein. Sein Besitzer war fest davon überzeugt, dass sein Pferd zählen konnte. Dies bestätigten viele Augenzeugen. Als dies Wissenschaftler untersuchten, brach für den Besitzer eine Welt zusammen. Sein Experiment sah wie folgt aus: Er sagte dem Pferd eine Zahl und dass Pferd begann daraufhin solange mit den Hufen zu schlagen, bis die Zahl erreicht war. Das funktionierte auch tatsächlich wie durch Wunderhand. Leider hörte das Pferd nicht deswegen auf zu klopfen, weil der Zählstand erreicht war, sondern weil der Besitzer beim Erreichen der richtigen Zahl begann aufzuschauen. Das Pferd hatte gelernt: Wenn es in diesem Moment aufhört zu klopfen, dann gibt es als Belohnung „lecker Möhrchen“.

Externe Faktoren und Korrelate während des Experiments können also leicht verfälschen. Dies gilt es immer zu beachten. Weiterhin müssen in der Regel für jede Kombination der Ursachen mehrere Versuche durchgeführt werden. Die Anzahl hängt ein wenig von der Streuung der Ergebnisse ab. Wenn ich mir mit dem Hammer aus Testgründen auf den Finger haue, um den Effekt zu untersuchen, dann wird das Ergebnis sehr konsistent sein. Daher brauche ich nur wenige Schläge, um zu einem praktikablen Schluss zu kommen. Im Allgemeinen gelten aber die klassischen Regeln der Statistik. Als Daumenregel aus der Praxis gilt (Statistiker würden mich für diese Aussage steinigen), dass der Mittelwert bei N = 35 eine brauchbare Stabilität ergibt. Brauchbar bedeutet, dass die Ergebnisse zwar stark schwanken können, jedoch die abgeleitete Entscheidung die gleiche und daher stabil ist. Letztlich hängt die nötige Stichprobe davon ab, ob eher Tendenzaussagen oder genauere Ergebnisse gefordert werden. Wenn ich wissen will, ob ein Hammerschlag weh tut, muss ich nicht genau die Schmerzintensität messen. In diesem Fall werden wenige Schläge reichen, um zu brauchbaren Ergebnisse zu kommen.           
Digitale Spürhunde: Die multivariaten Ursachenanalyse-Verfahren

Auch Daten von Experimenten bedürfen einer nicht trivialen Auswertung, wenn mehrere Ursachen zeitgleich variieren. Genau dann hilft die deskriptive Statistik, also einfache Kennzahlenvergleiche, nicht mehr weiter.

Leider stößt das Experiment schnell an die Grenzen der praktischen Machbarkeit. Oft finden wir in der Praxis 10, 20 oder gar 50 potenziell relevante Einflussfaktoren, die sich zudem meist nicht auf binäre (hoch/niedrig) Niveaus begrenzen lassen. Je strategischer die Fragestellung ist, desto teurer wird zudem das Experiment. Wie teste ich im Experiment eine Unternehmenspositionierung? Wie eine Segmentierung? In vielen Fällen werden die Kosten für ein Experiment prohibitiv hoch, d. h. sie werden teurer als die Kosten einer Fehlentscheidung.[1]

Daher brauchen wir andere Methoden. Methoden, die anhand von Daten gute Hypothesen über die Wirkung bestimmter Ursachen erstellen.

Lassen Sie uns an einem einfachen praktischen Beispiel schauen, wie wir wahre Ursache-Wirkungs-Beziehungen aus Daten ableiten können. Dazu produzieren wir uns erst mal unsere Daten. Denn nur so können wir sicher gehen, dass wir die tatsächliche Wahrheit – die tatsächlichen Wirkbeziehungen auch wirklich kennen.

Es geht um folgendes kleines Beziehungsnetzwerk: Werbung steigert die Absatzzahlen und die Absatzzahlen steigern die Markensympathie. Zeitgleich senkt diese spezielle Werbung auch etwas die Markensympathie, da sie vielleicht etwas nervt.

Um dies abzubilden schaffe ich drei Datenreihen: Ausgaben für Werbung, Absatzzahlen und Markensympathie. Diese Zahlenreihen bilde ich zufällig – also mit einem speziellen Würfel, der mir beliebigen Nachkomma-Zahlen zwischen 0 und 1 ausspuckt.

Schritt eins ist die Initialisierung: Die Datenreihe für Werbung wird im ersten Schritt aus 1000 Zufallszahlen zwischen 0 und 1 erzeugt. Analog wird die Datenreihe „Absatzzahlen“ gebildet. Die Datenreihe „Markensympathie“ wird ebenso erzeugt, nur dass die Zahlen zwischen 0 und 0,5 schwanken.

Im zweiten Schritt simulieren wir die Wirkbeziehungen.

  1. Die resultierende Datenreihe „Absatzzahlen“ wird aus den initialisierten Werten „Absatzzahlen“ addiert mit den Werten für Werbung gebildet.

„Absatzzahlen“ = „Absatzzahlen“-Initialisierung        +        „Werbung“

Die inhaltliche Bedeutung ist, dass die Absatzzahlen positiv von der Werbung beeinflusst werden. Hinzu kommen zufällige andere Einflüsse (die Initialisierungswerte).

  1. Die Markensympathie wird aus den dafür initialisierten Zufallswerten „Markensympathie“ PLUS die „Absatzzahlen“-Daten und MINUS die Hälfte der „Werbung“-Zahlenreihe.

„Markensympathie“ =
„Markensympathie“-Initialisierung    +   „Absatzzahlen“    –       „Werbung“/2

Die inhaltliche Bedeutung ist, dass die Markensympathie durch die Absatzzahlen positiv beeinflusst wird. Wer kauft wird retrograd eine positivere Einstellung entwickeln. Jedoch wirkt die Werbung leicht negativ auf die Markensympathie. Scheinbar löst sie zwar Kaufakte aus – ist aber nicht besonders sympathisch.

Auf diese Weise erzeugt man 1000 Datensätze mit jeweils Werten für Werbung, Absatzzahlen und Markensympathie. Jetzt schauen wir uns mit Analyseverfahren diese Datensätze an und versuchen herauszufinden, wie „Werbung“ und „Absatzzahlen“ die Größe „Markensympathie“ beeinflussen.

Insbesondere interessiert uns wie „Werbung“ auf „Markensympathie“ wirkt. Denn wie oben definiert, ist der direkte Einfluss von „Werbung“ auf „Markensympathie“ negativ und nur der indirekte Einfluss positiv – dies, weil „Werbung“ ja „Absatz“ positiv beeinflusst und „Absatz“ dann „Markensympathie“ positiv beeinflusst.

Jetzt berechne ich den Korrelationskoeffizienten zwischen „Werbung“ und „Markensympathie“   erhalte den Wert 0,42. Das würde ja heißen: Je höher „Werbung“ desto höher „Markensympathie“. Schauen wir uns die Daten im zweidimensionalen Plot an.

Man sieht deutlich: Je höher „Werbung“ desto höher „Markensympathie“. Doch warte mal! In Wahrheit beeinflusst doch Werbung die Markensympathie negativ. Ganz offensichtlich ist diese Zweivariablen-Analyse – egal ob Korrelationskoeffizient, graphische Analyse oder andere Auswertungen – nicht geeignet, die Wahrheit aufzudecken. Keine noch so elaborierte Zauberformel wird aus den dargestellten Zahlenpaaren die Wahrheit aufdecken können. Warum? Weil wichtige ursächliche Informationen fehlen.

Irgendwie scheint diese Analyse direkte und indirekte Effekte zu vermengen. Diese indirekten Effekte kann ich nur herausrechnen, wenn ich die Variablen einbeziehe, die dabei beteiligt sind. Also muss ich mir die Daten nicht in einer zweidimensionalen, sondern in diesem Fall dreidimensionalen Analyse Anschauen. Im Dreidimensionalen entsteht ein Analyseraum, in dem eine blaue Punktwolke dargestellt werden kann. Im zweidimensionalen Fall erkennen wir den Zusammenhang, indem wir mit dem Auge eine Linie durch die Punktwolken legen. Diese Linien zeigen im Beispiel oben nach oben – je mehr, je besser.

Habe ich eine dreidimensionale Punktwolke, muss ich eine Ebene durch die Punktwolke legen.

 

Die blauen Punkte visualisieren den gleichen Datensatz – nur dass zeitgleich die Variable „Absatzzahlen“ mit dargestellt wird. An der Neigung der Ebene kann man nun den Effekt der Variablen „Werbung“ und „Absatzzahlen“ auf „Markensympathie“ ablesen. „Absatzzahlen“ wirken klar positiv auf „Markensympathie“.

Jedoch wirkt „Werbung“ negativ. Das können Sie am besten dort ablesen, wo „Absatzzahlen“ = 0 ist. Je größer die Zahlen für „Werbung“ sind, desto mehr nähert sich die Ebene der „Werbung“-Achse. Das heißt, dass der direkte Zusammenhang wie folgt ist: Je größer die Ausgaben für Werbung sind, desto kleiner ist die Markensympathie.

Das Legen einer mehrdimensionalen Ebene in eine mehrdimensionale Punktwolke nennt man multivariate, lineare Regressionsanalyse. Und sie ist prinzipiell für beliebig viele Treibervariablen anwendbar. Wenn Sie die dreidimensionale Grafik gedanklich so drehen, dass Sie von der „Werbung“ Seite draufschauen, erhalten Sie wieder eine zweidimensionale Darstellung. Dies sieht dann so aus:


Die Punkte sind wieder genau die gleichen wie die roten Punkte in der ersten Abbildung. Die Gitter sind aus dem dreidimensionalen Graph entlehnt. Die abfallenden Linien sind Linien mit konstanten Absatzzahlen. Die Steigung entspricht genau dem Einfluss von „Werbung“ auf „Markensympathie“.

Die Regressionsanalyse ist eine Methode der multivariaten Ursachenanalyse. Multivariate Ursachenanalysemethoden betrachten mehrere Ursachen gleichzeitig und ermitteln in einer ganzheitlichen Betrachtung, welche Treiber welche Veränderung der Zielgröße tatsächlich verursacht haben. Der Hauptnutzen dieser Analyse ist die Vermeidung von Scheinkorrelationen, da alle Ursachen gleichzeitig betrachtet werden. Die fatalen Folgen von falschem Wissen durch Scheinerkenntnisse haben wir bereits ausgiebig betrachtet.

Die Regressionsanalyse veranschaulicht sehr schön den Lösungsansatz unseres Problems. Jedoch muss man noch einige weitere Anforderungen erfüllen, um in der Realität gute Ergebnisse zu erzielen. Daher brauchen wir eine verfeinerte Methode, deren Anforderungen wir in Kapitel 5 diskutieren.

 

Die multivariate Ursachenanalyse erfordert das Vorhandensein von Daten. Experimente durchzuführen, ist kosten- und zeitintensiv. Welche Methode sollte ich in welchen Situationen anwenden und in welchen nicht?

Der Prozess der Methodenwahl ist in folgender Abbildung skizziert. Am Anfang steht die Statusanalyse. Was sind meine Zielgrößen, was mögliche Treiber? Welche Kosten sind zu erwarten, wenn Experimente durchgeführt werden oder Beobachtungs- oder Befragungsdaten beschafft werden? Anhand dieser Informationen kann ich entscheiden, wie sinnvoll vorgegangen werden sollte.

Sie sehen, dass das übliche Trial & Error ein fester Bestandteil auch des zukünftigen Managens bleiben wird. Sie sehen jedoch auch, wenn Sie es mit vielen Ursachen zu tun haben und in der Lage sind, Erfahrungswerte in Daten zu quantifizieren, dann kommen Sie um die multivariate Ursachenanalyse nicht herum. Nur mit der multivariaten Ursachenanalyse ist es möglich, Scheinerkenntnisse zu vermeiden.




[1] Siehe dazu eine ausführliche Diskussion in Buckler/Gibson „Do Causal Models Really Measure Causation?“, in: Marketing Research Magazin, Spring 2010

Veröffentlicht unter Kapitel 3 | Kommentare deaktiviert für 3. Mit richtigen Methoden Ursachen aufspüren

4. Digitale Spürhunde im Einsatz: Anwendungsfelder multivariater Ursachenanalysen

Die beschriebenen Methoden werden benötigt, um brauchbares Wissen abzuleiten, wenn Zielgrößen viele Ursachen haben.

Das Experiment ist die Methode der Wahl, wenn die Anzahl der Ursachen begrenzt sind und die vergleichsweise hohen Kosten des Experiments den Nutzen rechtfertigen. Die Anwendungsbereiche können in der operativen Optimierung konkreter Marketing- und Vertriebsmaßnahmen verortet werden. Denn dort finden sich vereinzelt Aufgabenstellungen mit mittlerer Komplexität und begrenzten Kosten, die durch Fehlversuche anfallen.

Die Anwendungsfelder multivariater Ursachenanalysen ohne Rückgriff auf Experimente sind vielschichtiger und befinden sich in allen sonstigen Bereichen, in denen Manager brauchbares Wissen über Ursachen benötigen. Das Experiment ist die beste Methode, um Wissen zu erlangen, solange die Durchführung praktikabel ist. Wenn jedoch das Experiment nicht brauchbar erscheint, muss auf multivariate Ursachenanalysen zurückgegriffen werden. Die Voraussetzung dafür ist die Verfügbarkeit von Beobachtungsdaten. Ein Analyseverfahren braucht immer eine quantifizierte Erfahrungshistorie, die wir kurz als Daten bezeichnen. Oft liegen diese jedoch nicht vor, sodass der erste Schritt zu einem wirkungsvolleren Management in dem systematischen Quantifizieren und Speichern von ursächlichen Größen besteht. Die Kosten dafür sind im Vergleich zum Nutzen bei wichtigen Aufgabenstellungen fast immer überschaubar.

Da die Anwendungsfälle, in denen keine Experimente möglich sind, in der deutlichen Mehrzahl sind, möchte ich mich im Folgenden auf solche fokussieren. Dies ist umso notwendiger, da deren Anwendungsfelder und -potenziale oft nicht offensichtlich sind. Die nachfolgenden Fallbeispiele sollen veranschaulichen, wie und warum multivariate Ursachenanalysen in der Praxis angewendet werden.

 


Kundenmanagement

Markterfolg ist ein Ergebnis, das viele, sehr viele Ursachen und Bedingungen hat. Es gibt Millionen von Maßnahmenvariationen, die man ergreifen kann. Die Klaviatur der Kanäle unterscheidet sich stark je nach Branche. Während im Konsumgüterbereich hier insbesondere Werbekanäle gemeint sind, sind es im Industriegüterbereich hingegen eher Vertriebsunterstützungsmaßnahmen. Neben der Frage, wie viel Geld in welche Kanäle fließen sollte, ist mit dem Marketing auch inhärent die Frage verbunden, was konkret der Inhalt der Werbung oder der Vertriebsunterstützungsmaßnahme sein sollte. Für die inhaltliche Optimierung haben sich Experimente als beste Methode bewährt, insofern eine praktikable Positionierung und Segmentierung vorliegt – mehr dazu später. Die Verteilung von Budget auf Instrumente und Kanäle ist jedoch in den meisten Fällen zu komplex, sodass multivariate Verfahren sinnvoll eingesetzt werden.

Fallbeispiel: Marketingbudgetverteilung im Pharmavertrieb

Ein Pharmaunternehmen, welches verschreibungspflichtige Medikamente vertreibt, wollte die Verteilung des Marketingbudgets optimieren. Marketinginstrumente sind hier die Anzahl der Besuche eines Vertriebsmitarbeiters bei verschreibenden Ärzten, die Anzahl der ausgegebenen Produktproben, die der Brand-Reminder (Kugelschreiber etc.), das verwendete Budget für durchgeführte Informationsveranstaltungen (lokale Workshops und Kongresse), für Werbeanzeigen in Fachzeitschriften, Produktproben in Krankenhäusern (dort werden Patienten auf Medikamente eingestellt, die daraufhin dauerhaft Verwender werden), aber auch die Preisgestaltung.

Die Situation im Unternehmen stellte sich wie folgt dar. Das Top-Management fragte das Marketing und die Vertriebsorganisation, ob diese die Wirksamkeit seiner Ausgaben nachweisen können. Ein neues Schlagwort geisterte durch die Branche: Marketing-ROI. Schmerzlich musste man feststellen, dass man es letztlich nicht messen kann.

Doch wie wird die Budgetverteilung auf die Instrumente heute festgelegt? Es wird – positiv ausgedrückt – nach gesundem Menschenverstand und anhand von Erfahrungswerten abgewogen und festgelegt, welche Instrumente wie viel Budget erhalten. Oft hält man sich aber auch einfach daran, wie es andere machen und wie es bislang so üblich war. Und die meisten Marketing-Manager haben dabei ein ungutes Gefühl. Eins ist in der Branche unbestritten: Es ist sinnvoll Ärzte regelmäßig zu besuchen. Ob und wie viele Produktproben positiv wirken, ob und wie viele Kugelschreiber zu verteilen sind oder Werbung in Fachzeitschriften zu schalten ist, ist nicht bekannt. Und wenn die Wirkung unbekannt ist, ist es als wahrscheinlich anzunehmen, dass mit der jetzigen Verteilung des Budgets viel Geld vergeudet wird.

Darum startete das Unternehmen ein Pilotprojekt, in dem den Zusammenhängen durch multivariate Ursachenanalysen auf den Grund gegangen werden sollte. Nachdem ein Beratungshaus nicht überzeugen konnte, wendete ich mich der Aufgaben zu. Das Projektteam fand beispielsweise heraus, dass die Wirkung vieler Instrumente schlichtweg nicht nachweisbar war. Werbung beispielsweise war wirkungslos. Brand-Reminder wie Kugelschreiber hingegen waren eine gute Ergänzung. Zudem konnten wir widerlegen, dass „je mehr Produktproben, desto besser“ eine gute Regel ist. In Wirklichkeit gibt es einen Punkt, ab dem zu viele Produktproben negative Effekte auf den Abverkauf haben. Warum? Ganz einfach weil Ärzte dann diese Proben statt einer Verschreibung weitergeben. Produktproben stimulieren zwar den Abverkauf, sie substituieren diesen jedoch zeitgleich. Zwar ist dieses Ergebnis für Branchenexperten mehr als plausibel, diese waren im Vorhinein jedoch nicht in der Lage, den optimalen Punkt des Probeneinsatzes zu benennen. Im Ergebnis wurde von uns vorhergesagt, dass eine Verdoppelung der Budgeteffektivität oder eine Halbierung der Marketingbudgets möglich war.

 

Fallbeispiel: Werbebudgetverteilung für einen Glückspielanbieter

Die Situation bei einem großen deutschen Glückspielanbieter war angespannt. Seit Jahren sanken die Umsätze und der Geschäftsführer fragte sich zu Recht, ob die Werbemillionen richtig investiert sind. Im Losgeschäft sind Werbekanäle zum einen klassische Medien wie Print, Plakat, Radio, aber auch Einkaufsradio, sowie Werbung in den Verkaufsstellen und auf Webseiten. Die Werbeverteilung wurde nach allgemeinen Glaubensätzen von Mediaplanern festgelegt. Ein solcher Glaubenssatz ist beispielsweise, dass Radiowerbung die am schnellsten wirkende Werbung ist und daher für Kurzfristthemen wie Jackpots massiv eingesetzt wird, um den Umsatz zu steigern. Welcher Werbedruck jedoch genau benötigt wird, geben Glaubensätze nur mit schlechter Präzision preis, wie sich herausstellen sollte.

Wir unterschieden den Medieneinsatz je nachdem, welche Inhalte die Werbung hatte. Wurde ein Jackpot beworben, war es eine Imagewerbung oder war es eine Sonderaktion. Weitere wichtige Einflussgrößen waren die Höhe des Jackpots, die aktuelle Presseberichterstattung, die konkreten Wochentage und der Zeitpunkt im Monat.

Wichtig ist es immer, alle Einflussgrößen in ein Modell aufzunehmen, ungeachtet der Tatsache, ob diese steuerbar sind oder nicht. Denn nur durch ein möglichst vollständiges Modell können Scheinerkenntnisse vermieden werden. Wenn beispielsweise Radiowerbung vor allem wochentags geschaltet wurde, jedoch in der Woche gewohnheitsbedingt die Umsätze geringer sind als am Wochenende, würde dem Radio fälschlicherweise eine negative Wirkung zugeschrieben werden. Daher kommt der sorgsamen Sammlung möglicher Erfolgsvariablen eine zentrale Rolle zu.

Das Ergebnis der Analyse zeigte überraschende Ergebnisse. Nichtklassische Medien waren um ein Vielfaches effektiver als klassische. Viele Medien interagierten stark, sodass ein kombinierter Einsatz empfohlen wurde. Überraschend war auch, dass kurzfristige Medien wie Radio nicht kurzfristig wirkten, sondern möglichst lange geschaltet werden mussten. Dies steht nur vordergründig im Widerspruch zum Glaubenssatz. Denn die Analyse zeigt, dass Radio lediglich die kognitive Awareness schafft. Um ein Los zu verkaufen, muss der Kunde erst mal an der Verkaufsstelle vorbeikommen. Niemand sucht diese nur wegen des Loskaufs auf. Vielmehr ist dies meist ein Impulskauf, der von der vorher aufgebauten Awareness lediglich begünstigt wird. Daher definieren die Bewegungsgewohnheiten der Zielkunden die Effektgeschwindigkeit und nicht das kurzfristig wirkende Radio.

Drei Viertel der Umsatzänderungen war durch nichtwerbliche Ursachen begründbar wie die Jackpothöhe, der Wochentag oder der Tag im Monat. Werbung war nur dann wirksam, wenn der inhaltliche Bezug insb. zum aktuellen Jackpot vorlag.

Im Ergebnis konnten wir zeigen, dass Werbung für diese Glücksspielprodukte sehr lohnend ist, eine Budgetumverteilung erhebliche Effektsteigerungen bringt und darüber hinaus eine Ausdehnung des Budgets sehr empfehlenswert erscheint.

 

Fallbeispiel: Werbebudgetverteilung für Automobilanbieter

Ein anderes Bespiel aus dem Konsumgüterbereich ist eine Branchenstudie im Automobilbereich, die wir in Kooperation mit Thomson Media Control, YouGov und der Fachhochschule Münster durchgeführt haben. Ziel der Studie war es, zu untersuchen, ob der Effekt von Werbung im Gesamten nachweisbar ist und welche Optimierungspotenziale bestehen. Man will eigentlich meinen, dass der Effekt von Werbung nachgewiesen und bekannt ist. Dies ist jedoch keineswegs generell der Fall. Wie der damalige Marketingvorstand der Audi AG Michael Trautmann einmal vor einigen Jahren auf einer Fachtagung sagte: „Ein ungelöstes Problem ist heute immer noch, dass wir in Wirklichkeit nicht wissen, ob die Gesamtheit unserer Kampagnen tatsächlich nennenswerte Effekte zeigt“ Man kann zwar in Labors nachweisen, dass eine Werbeanzeige zu einem gewissen Prozentsatz erinnert wird und eine Einstellungsänderung verursachen kann, wie sehr es jedoch tatsächlich dazu kommt, dass die Anzeige gesehen und studiert wird oder wie der Effekt sich verstärkt, wenn ein Zielkunde ggf. gerade eine TV-Werbung gesehen hat, ist nicht bekannt.

In unserer Branchenstudie konnten wir durch die Daten von Thomson Media Control auf einen kompletten Fundus der Brutto-Werbeausgaben aller relevanten Automobilhersteller in den klassischen Werbekanälen TV, Print, Plakat und Radio zurückgreifen. Als Ergebnisgrößen dienten uns die Daten des BrandIndex der YouGov Gruppe. Dies ist ein tagesaktuelles Online-Panel, welches durch die Befragung von 1000 Personen Rückschlüsse über die aktuelle Markenstärke zulässt. Beide Datensätze zusammen erlauben es, den Effekt der Werbung auf die Markenstärke zu analysieren.

Im Ergebnis konnten wir durch unsere innovativen Methoden 20 % der Markenstärke-Änderung durch Werbeausgaben erklären. Dies ist im Vergleich zu den herkömmlichen Methoden, die genau 1 % erklären, sehr viel. Es zeigt natürlich auch, dass ein erheblicher Teil (80 %) auch durch andere Ursachen wie die Art der Werbung (z.  B. Imagewerbung vs. Produktwerbung), Werbegestaltung, nichtklassische Medienausgaben oder externe Effekte beeinflusst wird.

Interessant war auch, dass die vergleichsweise hohe Erklärungsgüte nur durch den Einsatz hochentwickelter Analysemethoden möglich war. Mit einfachen Regressionsmethoden war lediglich 1 % der Änderungen erklärbar. Der Grund dafür liegt darin, dass die Wirkung der Kanäle sich in hohem Maße gegenseitig beeinflusst und sogenannte Interaktionseffekte auftreten. Weiterhin zeigen viele Kanäle Sättigungseffekte, d. h. der Wirkungsverlauf ist nichtlinear. Herkömmliche Analyseverfahren nehmen jedoch die Unabhängigkeit von Einflussgrößen an (es sind keine Interaktionseffekte erlaubt). Zudem wird der Einfachheit halber ein linearer Zusammenhang angenommen. Dies bedeutet, es wird ein „je mehr, desto besser“ angenommen. Auf die Anforderungen an Analysemethoden werde ich noch näher eingehen.

Zu guter Letzt haben wir in der Branchenstudie untersucht und simuliert, welche Effizienzpotenziale bestehen. Dazu haben wir betrachtet, welchen Effekt die Ausgaben an den 50 % effektivsten Werbe-Tagen hatten. Im Ergebnis war festzustellen, dass jede Marke ein Potenzial zur Steigerung der Effektivität von ca. 100-200 % besitzt. Diese Erkenntnis bestätigt das alte Zitat von Henry Ford, der schon wusste, dass mindestens 50 % der Werbung verschwendet ist. Multivariate Methoden geben uns die Möglichkeit, zu erfahren, welche 50 % dies sind.

Werbebudget-Optimierung ist eine Problemstellung, die immer unternehmens- und branchenindividuell angegangen werden sollte, um wirksame Ergebnisse zu erhalten. Angesichts der enormen Investitionen in Marketingaktivitäten ist es im wahrsten Sinne des Wortes lohnend, in diesem Bereich mit Hilfe von multivariaten Ursachenanalysen Optimierungen vorzunehmen.

 

Fallbeispiel: Adoption von Neuprodukten im Mobilfunk

Ein Mobilfunkanbieter hatte Mobile-Payment- und Mobile-Wallet-Servicekonzepte entwickelt und wollte die Erfolgsfaktoren für einen erfolgreichen Produktlaunch untersuchen. In ähnlichen Situationen der Vergangenheit hatte man in einer Befragung Probanden Produktkonzepte vorgelegt und diese gefragt, wie sie das Produkt bewerten. Es sollte sich herausstellen, dass die Bewertung einer Eigenschaft nicht besonders aussagekräftig bzgl. des Einflusses der Eigenschaft ist.

Im aktuellen Projekt wurde wieder so vorgegangen. Dem Befragten wurden sehr konkrete Ideen mobiler Bezahlservices präsentiert, erklärt und sein Interesse für die Nutzung abgefragt. Im Weiteren wurde der Befragte gebeten, das Angebot bezüglich definierter Nutzenkomponenten zu bewerten. Gemäß der Adoptionsforschung sind dies Kriterien aus den Bereichen „empfundener Produktvorteil“ (z.  B. schneller als heute bezahlen können), „die Kompatibilität mit konkreten Lebensumfeld und Verhaltensweise“ (z.  B. es passt zu meinem Lifestyle, neue Bezahlmethoden zu verwenden), „Einfachheit“ (z.  B. die Handhabung ist sehr einfach), „Kosten und Aufwand“ (z.  B. die Kosten der Anwendung sind vergleichsweise gering) und „das empfundenes Risiko“ (z.  B. ich befürchte, dass es gehackt und missbraucht werden könnte).

Im Projektteam des Unternehmens befand sich ein Manager, der das Projekt als Basis seiner MBA-Theses verwendete und daher bestrebt war, methodisch fortgeschritten vorzugehen und Fehler der Vergangenheit aufzudecken. Im Laufe seiner Forschung wurde ihm bewusst, dass die Anwendung multivariater Methoden notwendig war. Aufgrund von Ungereimtheiten mit herkömmlichen multivariaten Methoden wandte er sich an mich.

Wir setzten gemeinsam eine innovative multivariate Methode ein und kamen zu erstaunlichen Erkenntnissen. Interessant war in dieser Studie wieder, dass deskriptive Analysen systematisch in die Irre führten. Würde man sich nur an der Wichtigkeit orientieren, welche die Befragten selbst angaben, würde das Risiko (bzw. die Sicherheit) und die Einfachheit als zentrale Erfolgsfaktoren im Fokus stehen. Die multivariate Analyse ergab jedoch, dass die Kompatibilität der zentrale Enabler ist, welcher den Befragten so nicht bewusst ist! Diese Analysen können statistisch nachweisen, dass ein Produktinteresse zu fast 50 % darauf zurückzuführen ist, dass das Produkt kongruent mit dem Lebensumfeld der Zielkunden ist. Als Resultat gilt es, die erfolgversprechendsten Touchpoints, Nutzergruppen und Anwendungssituationen zu erarbeiten.

Weiterhin zeigte sich in der deskriptiven Analyse, dass Kunden, die das Produkt wählen würden, sehr viel deutlicher den relativen Produktvorteil wahrnahmen. Ein sehr plausibles Ergebnis, oder? Leider zeigt die multivariate Analyse, dass der relative Produktvorteil durch eine eher emotionale Wahrnehmung der Einzigartigkeit des Angebots getrieben ist. Die interessierten Kunden wählten das Produkt also insbesondere, weil es etwas Neues und Besonderes ist. Und weil sie es gut fanden, attestierten sie dem Angebot einen Produktvorteil – nicht andersherum. Aus diesem Grund macht es Sinn, das Produkt emotional und nicht primär rational zu vermarktet. Die Einsicht in wahre Ursache-Wirkungs-Zusammenhänge führt wieder einmal zu vollständig anderen Handlungsempfehlungen.

 

Fallbeispiel: Kundenbindung eines Telekommunikationsanbieters

Der grundsätzliche Ansatz einer Kundenbindungsanalyse ist es, herauszufinden, welche Produkt- und Servicefaktoren zur Kundenbindung führen. Umgangssprachlich wird dies oft dahingehend übersetzt, indem die folgende Frage gestellt wird: „Was ist dem Kunden wichtig?“ Diese Frage stellt sich jedoch als mehrdeutig und nicht trivial heraus. Es ist ein Unterschied zu fragen: „Was ist dem Kunden wichtig?“, oder: „Welche Verbesserung wird am effektivsten zu mehr Kundenbindung führen?“ Fragt man Kunden, ob ein Airbag im Auto wichtig ist, werden dies die meisten bejahen und als sehr wichtig ansehen. Ein größerer Airbag oder die Erhöhung der Airbaganzahl bringt heute jedoch nur marginale Kundenbindungseffekte. Dieses Beispiel zeigt, dass es Sinn ergibt, sich genau zu überlegen, was man eigentlich wissen will. Je nach Frage ist ein anderer Forschungsansatz notwendig.

Heute sind Kundenzufriedenheitsbefragungen in vielen Unternehmen etabliert. Man will wissen, wie zufrieden und wie loyal unsere Kunden sind. Die viel entscheidendere Frage, die sich dann zwangsläufig anschließt, ist: „Wie kann ich die Kundenbindung erhöhen?“ Natürlich versprechen die Marktforschungsanbieter eine Antwort auf diese Frage. Jedoch beschränken sie sich dabei fast immer auf die Anwendung deskriptiver (bzw. bivariater) Analysen. Man analysiert beispielsweise, wie stark die Einschätzung der Leistung des Unternehmens in einem Produktkriterium mit der Kundenbindung korreliert. Alternativ zeigen andere, wie sich loyale Kunden in der Einschätzung der Leistung des Unternehmens in einem Produktkriterium von nichtloyalen Kunden unterscheiden. Beides sind deskriptive bzw. bivariate Analysen und führen zu stark verfälschten Ergebnissen. Überlegen Sie einmal, wie viele der Analysen in Ihrem Unternehmen auf dieser Art von Analysen beruhen! In den meisten Unternehmen sind es 100 %, in anderen 95 %. Obwohl diese Analysen ein hohes Risiko besitzen, falsch zu sein, werden sie trotzdem angewendet. Dies ist so, weil diese einfachen Analysen intuitiv verständlich sind und so auch einfach im Unternehmen erklärt und kommuniziert werden können. Meiner Meinung nach ist es für einen Marktforschungsdienstleister nicht vertretbar, derart verzerrte Analysemethoden zu empfehlen, nur weil diese sich verkaufen lassen. Falsche Ergebnisse werden nicht dadurch richtig, dass man sie gut verstehen kann. Die Marktforschungsbranche verpflichtet sich seit Jahrzehnten zu moralische Standards (ESOMAR Standards). In diesen bezieht man sich jedoch nur auf die Datenerhebung. Meines Erachtens gehört es zu einer moralisch korrekten Beratung, den Kunden vollumfänglich über die erheblichen Risiken von bivariaten Analysen aufzuklären. Dies bleibt heute in den meisten Fällen aus.

So auch im Fall eines großen Telekommunikationskonzerns. Hier hatte man seit Jahren das Kundenbindungsbefragungsinstrument TRI*M europaweit eingeführt, welches ausschließlich auf deskriptiven Auswertungen beruht. Als Basis dient die quartalsweise Befragung von tausenden Kunden und Nichtkunden in jedem Land. Neben einem Konstrukt, welches die Kundenbindung misst, werden Bindungstreiber auf zwei Ebenen gemessen. Die Treiber der ersten Ebene messen allgemeine Größen wie die Zufriedenheit mit der Netzqualität, mit den Tarifen, dem Service im Call Center oder etwa dem Service im Shop. Auf der zweiten Ebene geht man etwas mehr ins Detail. So wird der Preis in Preis je Telefonat, je SMS oder Preis der Internetbenutzung unterteilt. Durch das zweistufige Modell reduziert man auf der ersten Ebene die Komplexität der Analyse und erhöht so die Güte der Ergebnisse. Zeitgleich ermöglicht man detaillierte Erkenntnisse über die Treiber der zweiten Ebene und erhält so sehr konkrete Handlungsanweisungen.

Die Marktforschungsabteilung war von jeher mit der Erklärungskraft ihres Modells nicht zufrieden und wollte prüfen, ob neue multivariate Ursachenanalysen sinnvolle und zeitlich stabile Ergebnisse mit hoher Erklärungskraft liefern können.

Der Informationsgewinn der Analyse mit multivariaten Methoden lässt sich zeigen, indem man untersucht, wie sehr das Modell erklären kann, warum nichtloyale zu loyalen Kunden werden. Die Erklärungsgüte von bivariaten Modellen kann man mit Scoringmodellen bestimmen. Im Beispiel haben wir die Treibervariablen mit ihrer Korrelation zur Loyalitätsvariablen gewichtet und so einen Scoringindex-Wert für jeden Befragten gebildet. Dieser erklärt die Loyalität mit einen R2 von 0,50. Der Vergleichswert ist ein sogenanntes naives Prognosemodell, welches alle Treiber im Scoringmodell gleich gewichtet. Dieser naive Scoringindex erreicht einen R2 von 0,45. Somit erhält man mit Korrelationen einen Informationsgewinn von 5 Punkten im R2. Im Vergleich dazu erreicht ein multivariates Analysemodell ein R2 von 0,55 bei herkömmlichen Regressionsverfahren und 0,61 bei innovativen Methoden (die Nichtlinearitäten und Interaktionen berücksichtigen). Der Informationsgehalt von multivariaten Analysen gegenüber bivariaten Analysen ist demnach mit bis zu 16 Punkten (statt 5 Punkten) um über 200 % höher! Das bedeutet, dass statistisch gezeigt werden kann, dass multivariate Analysen in einem deutlich höheren Ausmaß richtige Ergebnisse produzieren. Wenn man bedenkt, dass mit falschen Ergebnissen Folgekosten verbunden sind, sollte dies Motivation genug sein, auf neuartige Analysemethoden umzusteigen.

Der Informationsgewinn spiegelt sich in besseren Ergebnissen wieder. Darüber hinaus führen die Ergebnisse auch dazu, dass erheblich weniger Faktoren wirklich wichtig sind. Gute und richtige Analysen decken den Pareto-Charakter realer Systeme auf. 20 % der Erfolgstreiber sind oft für 80 % der Kundenloyalität verantwortlich. Schaut man sich Korrelationskoeffizienten an, wird man dies nicht finden. Die meisten Faktoren korrelieren ganz gut. Ganz einfach weil die Faktoren sich untereinander beeinflussen und so eine sogenannte Multikolinearität – also einen gewissen Gleichlauf – ausbilden. Die wahren Ursachen können nur durch multivariate Verfahren offen gelegt werden. Die folgende Abbildung zeigt, dass in unserem Beispiel die Top-2-Treiber der multivariaten Analyse über 50 % mehr von der Kundenbindung erklärten als das Korrelationsmodell. Warum ist das so wichtig? Ganz einfach, weil Ressourcen begrenzt sind. Darum macht es Sinn, Verbesserungsmaßnahmen auf wenige Projekte zu fokussieren. Wenn wir Analysemethoden haben, die uns besser sagen, welche wenigen Faktoren 80 % des Effekts verursachen, dann wird der Effekt der limitierten Ressourcen deutlich höher ausfallen. Fokussierung heißt, bessere Ergebnisse. 50 % mehr Fokus kann 50 % und mehr Effekte bedeuten.

Natürlich sind die Ergebnisse solcher Kundenloyalitätsstudien nicht der Weisheit letzter Schluss. Grundsätzlich ist es gar nicht möglich, absolute Sicherheit über Ursache-Wirkungs-Zusammenhänge zu erlangen (vgl. Popper). Der Punkt ist eigentlich, dass gute Empirie der einzige Weg zu brauchbarem und zuverlässigem Wissen ist (vgl. Kant). Es geht nicht darum, die absolute Wahrheit zu finden – denn es ist unmöglich, diese mit Sicherheit zu finden. Es geht darum, nützlicheres Wissen zu erlangen als das im Status Quo. So gibt es eine Reihe von Forschungsansätzen, mit denen man die Validität und Nützlichkeit der Ergebnisse weiter erhöhen kann. Ein Ansatz ist der Wechsel zu Zeitreihenanalysen. Heute werden Kunden meist zu einem Zeitpunkt befragt. Da Ursachen immer vor der Wirkung auftreten, kann Kausalität besser nachgewiesen werden, wenn man die Treiber und Effekte zu mehreren Zeitpunkten misst und entsprechend auswertet. Tritt eine Größe konsistent zeitlich vor einer anderen auf, so kann Kausalität gefolgert werden, solange das Modell vollständig ist (vgl. Granger). Besonders präzise werden die Erkenntnisse dann, wenn es gelingt, ein Panel, d. h. eine feststehende Gruppe an Personen, regelmäßig zu befragen. Dadurch kann man an jeder Person beobachten, welche Situationsprofile heute zu steigender oder sinkender Loyalität morgen führen. Die Nützlichkeit der Loyalitätsanalysen kann man weiter steigern, indem man über die Erhebung von Einschätzungen und Teilzufriedenheiten von Kunden hinausgeht. Denn dies sind streng genommen alles auch nur Ergebnisgrößen. Letztlich sind immer Maßnahmen Ursachen für Effekte. Daher gibt es Ansätze, in denen man zusätzlich Maßnahmen zählt und quantifiziert und diese Daten mit den Effekten der Befragungen in einer multivariaten Analyse verbindet.

 

Fallbeispiel: Preisbereitschaft im B2B-Vertrieb hebeln

Im Industriegüterbereich sind viele Produktmärkte commoditisiert – d. h., dass die Produkte der Wettbewerber sich kaum unterscheiden. Unabhängig davon ist der Preis auch und gerade hier der wichtigste Gewinnhebel, da jeder Euro im Preis eins zu eins in den Gewinn geht. Ein Unternehmen, das Industrieverpackungen herstellte, hatte dies erkannt. Die Frage war nur, wie finde ich den richtigen Preis, wenn meine Produkte sich kaum vom Wettbewerb unterscheiden? Interessanterweise konnte man beobachten, dass einige Kunden des Anbieters deutlich mehr für das gleiche Produkt bei gleichen Abnahmemengen bezahlen als andere Kunden. Was sind die Gründe für diese individuellen Unterschiede der Zahlungsbereitschaft? Das Unternehmen versuchte bislang diese Preisfindung unter Berücksichtigung des Einzelfalls zu gestalten. Sicher kein schlechter Ansatz. Jedoch kommt es darauf an, dass man die richtigen Hypothesen hat. Beispielsweise glaubte man, dass zentrale Einkaufsabteilungen grundsätzlich weniger bereit sind zu zahlen oder dass, wenn die verpackten Produkte teuer waren, die Verpackung auch teurer sein könnten. Beide Beispiele für Wirk-Hypothesen stellten sich als falsch heraus.

Ist ein Unternehmen in der Lage, die zentralen Treiber der Zahlungsbereitschaft zu verstehen, so kann die individuelle Preisgestaltung deutlich profitabler gestaltet werden. Für diesen Zweck habe ich für das Verpackungsunternehmen ein sogenanntes „Willingness-To-Pay“-Analysemodelle entwickelt. Das Vorgehen ist schnell umrissen: Im ersten Schritt wurde anhand von Experteninterviews eine umfangreiche Longlist von über 20 möglichen Treibern erarbeitet wie etwa „Wettbewerbsvorteil“, „Kundenloyalität“, „Verhandlungskompetenz“ oder „Bedarfsvolumen“. Danach wurden alle großen und mittleren Kunden anhand dieser Kriterien bewertet und zugleich der Deckungsbeitrag des Kunden als Zielgröße und Indikator für die Höhe des Preises aus der Unternehmensdatenbank bezogen. Mit Hilfe eines geeigneten multivariaten Analyseverfahrens konnte mit Hilfe dieser Daten der Zusammenhang zwischen möglichen Ursachen und dem Preisniveau ermittelt werden. Die Nutzung des Models erfolgt auf zwei Wegen.

Zum Ersten ergibt die Analyse interessante generelle Hinweise über die Hintergründe der Preisbereitschaft. Dabei stellte sich auch heraus, dass von der Longlist überhaupt nur für sechs Ursachen eine Wirkung nachgewiesen werden konnte. Zudem wird der Löwenanteil der Varianz durch einen einzigen Faktor erklärt. Die Ergebnisse zeigen also wieder ein deutliches Pareto-Prinzip. Die für die meisten Experten als wichtig erachteten Treiber stellten sich als vermutlich nicht relevant heraus.

Die zweite Verwendung der Analyse liegt in einem konkreten Diagnosetool. Auf Basis der gemachten Kundenbewertung kann das Tool die potenzielle Preisbereitschaft prognostizieren, wobei das Preisniveau durch den Rohertrag (Preis abzüglich Materialkosten) in Prozent gemessen wird. Die Differenz von prognostiziertem und tatsächlichem Rohertrag zeigt an, ob Potenzial für Preiserhöhung besteht oder ob die Preisschraube ggf. schon überzogen wurde.


Das Schöne an einem solchen hochentwickelten Tool ist, dass es sehr gut von der Vertriebsmannschaft aufgenommen und genutzt wird. Denn zum einen basieren die Prognosen auf den eigenen Einschätzungen. So war es auch in diesem Verpackungsunternehmen. Weiterhin gab der Vertrieb das Feedback, dass das Tool die viel ersehnte „moralische“ Unterstützung beim Angehen von zusätzlichen Preiserhöhungen bereitstellte.

 

Kundenmanagement zusammengefasst

 

Schauen wir zusammenfassend auf die beispielhaft genannten Modelle so finden wir Neuprodukt-Adoptionsmodelle und Kundenbindungsanalysen, die in den Bereich des Produkt- & Service-Managements gehört. Die Marketing-Budget-Optimierung verbesserte die Effizienz der Verteilung von Ressourcen auf diverse Kommunikationskanäle und gehört in den Bereich Promotion. Das Willingness-To-Pay-Tool gehört in den Bereich „Price“.

Auch im Bereich „Place“, also der Distributionspolitik, finden sich neben Vertriebsmanagement auch weitere Anwendungsfälle. Die Wahl eines Standortes ist beispielsweise eine sehr wichtige Entscheidung, da damit hohe Investments verbunden und Lock-In-Effekte die Folge sind. Die Entscheidungskriterien sind sehr vielfältig und unterscheiden sich stark je nach Anwendungsfall. In einigen Branchen wie dem Einzelhandel ist die Standortwahl an der Tagesordnung und ein entscheidender Erfolgsfaktor. In diesem Fall lohnt es sich, eine eigene Datenbank mit Erfolgsfaktoren und Erfolgsgrößen aufzubauen und anhand dieser Datenbank, die eigene Fähigkeit zur besseren Standortwahl zu verbessern. Diese Datenbank kann durch Daten aus öffentlichen oder professionellen Quellen (z.  B. www.contor.org) ergänzt oder gespeist werden.

Es ist ersichtlich, dass in allen Bereichen des Marketings diverse Problemstellungen existieren mit multiplen Ursachen, die durch gute Methoden besser gemanagt werden können.

Wer Themen wie Positionierung und Segmentierung als marketingtypisch vermisst, hat gut aufgepasst. In der Tat sind dies ebenfalls komplexe Themen, die brauchbares und zuverlässiges Wissen voraussetzen und eng mit dem Thema Kundenmanagement verknüpft sind. Diese Themen werden typischerweise als strategischer Überbau betrachtet. Daher werde ich auf Fallbeispiele zu diesen Themen in Kürze in einem separaten Abschnitt eingehen.

 

Einkauf und Personalmanagement

Neben dem Management von Kundenbeziehungen (Bereich Marketing/Verkauf) finden sich komplexe Zusammenhänge ebenfalls in anderen Gebieten des Managements – beispielsweise im Management der Mitarbeiter.

Ein Thema, mit dem man sich hier beschäftigt, ist die Frage, wie die wertvollen Mitarbeiter besser an das Unternehmen gebunden werden können. Diese Aufgabe ist analog zur Kundenbindung, denn auch die Gewinnung neuer Mitarbeiter ist ein sehr teurer, zeitaufwändiger und risikobehafteter Prozess, wodurch der Bindung eine wichtige Rolle zukommt. Daher sind Mitarbeiterbefragungen in vielen Unternehmen üblich. Man möchte den Status-Quo erfassen und erfahren, wie zufrieden und motiviert die Belegschaft ist. Was aber wichtiger ist, um die Bindung zu steigern, ist zu erfahren, welche Faktoren verbessert werden sollten, um den größtmöglichen Effekt bei begrenzten Mitteleinsatz zu verursachen.

Fallbeispiel: Mitarbeiterzufriedenheit bei Krankenhausärzten

Deutsche Krankenhäuser stehen in der Herausforderung, profitabel sein zu müssen ohne den Preishebel selbst in der Hand zu haben. Sowohl die Bezahlung der Leistungen als auch die Gehälter der Mitarbeiter sind weitgehend festgelegt. Auch und gerade wegen des geringeren Einstiegsgehalts sind beispielsweise Assistenzärzte sehr begehrt. Doch wie gewinne ich diese Ärzte und wie schaffe ich es, dass diese jungen Ärzte im Krankenhaus gehalten werden können?

Zusammen mit der Fachhochschule Münster habe ich eine Branchenstudie durch Befragung von Assistenzärzten durchgeführt. In der Abbildung anbei sind die Ergebnisse dargestellt. Die „direkt angegebene Wichtigkeit“ ist das, was die Befragten als wichtig angeben. „Abgeleitete Hebelwirkung“ ist das, was multivariate Ursachenanalysen als tatsächliche Hebelkraft einer Verbesserung des Faktors herausfinden. Man sieht sehr deutlich, dass der bei Weitem wichtigste Faktor zur Steigerung der Mitarbeiterzufriedenheit das Management des Stress-Levels ist. Ganz offensichtlich ist dies den Mitarbeitern selbst aber gar nicht bewusst, denn Sie schreiben dem Faktor Stress nur eine geringe Bedeutung zu. Ähnlich verhält es sich mit dem Image des Krankenhauses, das sich immerhin als fünftwichtigster Faktor herausstellte. Da wir ja alle von der Idee beseelt sind, dass wir selbst rational entscheiden, sehen die Ärzte selbst das Image des Krankenhauses als unwichtig an.

 

 

 

Was motiviert die Mitarbeiter wirklich zum Bleiben und zum Performen? Dies herauszufinden stellt sich als eine nicht triviale Aufgabe heraus. Die naheliegendste Idee ist es, die Mitarbeiter einfach mal zu fragen. Sicher kann dies aus verschiedenen Gründen nicht schaden. Allerdings zeigen wissenschaftliche Erkenntnisse, dass die Ergebnisse zum großen Teil nicht die Wahrheit sagen. Zum einen gibt es Interessengegensätze. Der Mitarbeiter hat ein Interesse daran, das Thema Geld aufzuwerfen, auch wenn weniger Geld ihn nicht zur Kündigung bewegen würde. Zum anderen ist es dem Mitarbeiter selbst nicht vollständig bewusst, was er will oder was ihn in einer hypothetischen Situation motivieren würde. Die Erkenntnisse der Neuroscience zeigen, dass Handlungen und Entscheidungen immer vom emotionalen Teil des Gehirns gesteuert werden. Neuste Untersuchungen von Neurowissenschaftlern haben ergeben, dass ein bis sieben Sekunden, bevor Menschen glauben, eine Entscheidung getroffen zu haben, bereits im emotionalen Gehirnzentrum nachgewiesen werden kann, dass es zu dieser Entscheidung kommen wird. Denken und Wissen trägt bestenfalls dazu bei, Emotionen zu lenken. Doch in den meisten Fällen wissen Menschen nicht, warum sie so oder so handeln. Wenn man sie fragt, versuchen sie sich selbst einen Reim zu machen und glauben auch selbst daran. Hintergrund ist, dass wir alle davon ausgehen, dass alles Handeln von dem „Ich“ – also von einem denkenden Teil des Menschen – gesteuert wird[1].

Kurzum, fragen Sie nicht Ihre Mitarbeiter, was sie wollen! Fragen Sie lediglich auf anonyme Weise, was diese heute wahrnehmen und wie zufrieden bzw. wie loyal sie sind. Aus den Angaben hunderter Mitarbeiter können multivariate Ursachenanalysen herausfiltern, welche Faktoren bei zufriedenen Mitarbeitern zu mehr Zufriedenheit geführt haben.

Beispiele im Einkauf

Ein weiterer Unternehmensbereich, der Beziehungen mit komplexen sozialen Systemen steuern muss, ist der Einkauf. Er managt die Beziehungen mit Lieferanten und anderen Wertschöpfungspartnern. Auch hier können spiegelbildliche Aufgabenstellungen wie im Verkauf gefunden werden – jedoch stellt sich die Notwendigkeit je nach Marktgegebenheit anders dar. Oft genug spielen Unternehmen auf Käufermärkten, was die Notwendigkeit für professionelles Marketing erhöht. Ist auch der Lieferantenmarkt ein Käufermarkt, liegen die Prioritäten anders, da wir weder Lieferanten anwerben müssen noch Bindungsaktionen notwendig werden. Zentrale Herausforderung ist dann das Thema Preisfindung.

Für Industrieunternehmen, deren Löwenanteil des Umsatzes aus Materialkosten besteht, ist es hochinteressant die Marktpreisentwicklung des Rohmaterials besser vorhersehen zu können als die anderen Nachfrager. Wenn Preise steigen werden, kann das Unternehmen frühzeitig Lagerbestände erhöhen. Wenn Preise sinken werden, können Lagerbestände minimiert werden und durch Rückgriff auf Spotmarktmengen tiefere Preise erzielt werden. Eine gute Preisprognose kann so die Marge eines Industrieunternehmens um 1-3 Prozentpunkte anheben. Bei einer typischen Umsatzrendite von 5-10 % ist dies ein massiver Beitrag und eine Gewinnsteigerung von bis zu 50 % und mehr.

Und in der Tat sind solche Prognosemodelle möglich und von speziellen Agenturen auch umgesetzt. Denn Rohstoffmärkte folgen durch Angebots- und Nachfrageeffekte komplexen Mustern. So kann man feststellen, dass der Stahlschrottpreis dem Neustahlindex in der Regel zwei Monate vorausläuft. Genauso wird beispielsweise der Kunststoff-Marktpreis maßgeblich von den Preisen der Vorprodukte Ethylen, Naphta und Rohöl beeinflusst. Angesichts der immensen Einsparungsmöglichkeiten ist es großen Unternehmen anzuraten, eine eigene proprietäre Prognoseabteilung zu betreiben. Denn nur der Informationsvorsprung zählt. Öffentliche Informationen von Branchendiensten sind so wertlos wie Börsenzeitschriften und die Telebörse auf NTV.

Solche Systeme können analog zu Börsenprognosesystemen gestaltet werden. In der folgenden Abbildung sehen sie ein Ergebnis des Aktienprognosesystems, das ich in den 90er Jahren zusammen mit Harun Gebhardt entwickelt habe und das heute von ihm betrieben wird. Das System zeigt seit dem Launch 1999 öffentlich und täglich nachprüfbar Trefferquoten von über 60 %. Sie sehen hier am Beispiel des NASDAQ wie ein ungehebeltes Musterdepot sich gegenüber dem Index entwickelt hätte. Mit Einsatz von Derivaten (insb. Optionsscheinen) kann diese Überrendite beliebig gehebelt werden. Der Hebel wirkt natürlich auch ins Negative, wenn die Prognosen „eine schlechte Strähne haben“. Daher setzt das vorhandene Spiel-Vermögen eine natürliche Grenze für sinnvolles hebeln.

Noch ist die Plattform www.Profit-Station.com, auf der Sie Prognosen im Abo erwerben können, ein Geheimtipp. Solange dies so bleibt, werden die Prognosen so gut sein, wie sie heute sind. Geben Sie dieses Buch also nicht aus der Hand 🙂


 


Strategische Unternehmensführung

Jetzt habe ich Beispiele gezeigt, wie die Aktivitäten im Marketing & Verkauf, sowohl die im Personal-Management als auch die im Einkauf, effizienter und effektiver gestaltet werden können. Wie sieht es aber mit der Unternehmensstrategie aus? Können wir auch die gesamte Unternehmensstrategie mit Methoden optimieren, welche in der Lage sind, die komplexen Ursache-Wirkungs-Zusammenhänge aufzudecken?

Strategische Ausrichtung auf Basis der PIMS-Datenbank

Genau dieser Frage ist in den 60er Jahren General Electric nachgegangen. Sie haben sich gefragt, warum profitable Geschäftsbereiche erfolgreicher sind als andere. Dies mündete in ein an der Harvard University geführtes Forschungsprojekt und eine Datenbank, die als PIMS (Profit Impact of Market Strategy) in die Geschichte der Managementwissenschaften eingegangen ist. Der Umstand, dass die Datenbank seit einiger Zeit durch kommerzielle Beratungsunternehmen (seit 2004 das Malik Management Zentrum St. Gallen) betrieben wird, hat scheinbar dazu geführt, dass sich Wissenschaft und Praxis weniger mit PIMS beschäftigt und viele Nachwuchsmanager PIMS gar nicht mehr kennen.

Das Projekt PIMS hatte schnell festgestellt, dass Zusammenhänge zwischen Eigenschaften und zukünftigem Erfolg nur zwischen vergleichbaren Objekten feststellbar sind. Vergleichbar sind sogenannte strategische Geschäftseinheiten (SGE), die sich insb. dadurch definieren, dass ein bestimmtes Set an Produkten (oder Dienstleistungen) einem bestimmten Set an Wettbewerbern gegenüber steht. Streng genommen besteht ein großes Unternehmen immer aus vielen SGEs. Der Erfolg muss je SGE individuell gemanagt werden, da diverse Randbedingungen unterschiedlich sein können. Aus dieser Perspektive geht es hier um Strategien für Geschäftseinheiten und nicht um Strategien für ein Unternehmen. Das Unternehmen als Ganzes fungiert als eine Art Holding und kann durch setzten guter Rahmenbedingungen wie finanzielle Ressourcen, adäquate Managementsysteme dem Gelingen der SGE zuträglich sein. Darum soll es hier aber nicht gehen.

Die PIMS-Datenbank besteht nun aus dem Input von über 4.000 SGEs aus 4 Jahrzehnten und kommt in Summe auf eine Erfahrungsbasis von über 25.000 Geschäftsjahren. In einem Interviewprozess werden bis zu 70 verschiedene Variablen aufgenommen, die von Marktexperten und Controllern der jeweiligen SGE beantwortet werden können. Die Variablen werden dann beispielsweise im sogenannten „par profitability model“ zu folgenden 30 Variablen aggregiert. Die nachfolgende Abbildung zeigt diese Variablen.

Ziel des Modells ist es, zu prognostizieren, welches Return-On-Investment und welche Umsatzrendite ein Geschäft mit ähnlichen Eigenschaften typischerweise erwarten lässt. Dies stellt der Benchmark für die Optimierung interner Prozesse dar. Ich selbst habe bereits in PIMS-Projekten mitarbeiten dürfen. Hier kam es beispielsweise vor, dass wider Erwarten eine relativ geringe Umsatzrendite von 5 % für das Business angemessen war, aber eine hohe Profitabilität (ROI) über die Supply-Chain-Effizienz erzielbar war. Daraufhin wurde der Pricing-Fokus im Unternehmen überdacht, welcher in der Vergangenheit in der Tat zu Marktanteilsverlusten und anschließenden Preiskämpfen geführt hatte.

Ein weiterer Output des PIMS-Modells ist die Ermittlung der Erfolgstreiber. Es wird der Frage nachgegangen, an welchen Schrauben muss ich drehen, um den ROI zu erhöhen. Die Antwort liefern wieder multivariate Analysemethoden. Ein vereinfachtes Verfahren, welches gute Ergebnisse liefern kann, ist die Look-Alike-Analyse. Findet man genügend SGEs mit ähnlichem Profil in der Datenbank, kann man auswerten, wie diese sich in den darauffolgenden Jahren entwickelt hatten. An den erfolgreichen Look-Alikes kann man sich dann orientieren. Diese Analyse liefert jedoch nur unter zwei Bedingungen richtige Ergebnisse. Erstens sollten die SGEs wirklich sehr ähnliche Eigenschaften haben. Hier kommt man selbst bei 4000 Unternehmen schnell an die Grenzen. Zum zweiten sollten zur Berechnung der Ähnlichkeit nur relevante Faktoren berücksichtigt werden. Ähnlichkeit auf Basis irrelevanter Faktoren ist willkürlich und wird den Beitrag der relevanten Faktoren überdecken und verzerren. Welche Faktoren relevant sind, sagen uns nur multivariate Analyseverfahren.

Manche Manager haben Vorbehalte gegenüber PIMS. Wie kann ein so quantitatives und statistisches Modell die Vielschichtigkeit der Realität abbilden. Kritisch sein ist immer sinnvoll – auch gegenüber PIMS. Sucht man jedoch nach alternativen Methoden, die anerkannten Kriterien über die Brauchbarkeit von Methoden standhalten, schaut man ins Leere. All die Strategiemethoden, die an den Universitäten gelehrt werden (von 5-Forces über die Boston-Matrix bis hin zu Porters Normstrategien), sind letztlich mit Hilfe von haltlosen Vorgehensweisen entstanden. Wir wissen einfach nicht, ob und wie viel daran wahr ist. Meistens weil sie so schwammig definiert sind, dass sie nicht widerlegbar sind – so wie ein Horoskop, es stimmt einfach immer. Wenn etwas immer stimmt, ist es wertlos.[2] PIMS ist der einzige mir bekannte Ansatz der prinzipiell widerlegbar wäre und ist damit der einzige Ansatz, der valide Hinweise gibt, in welche Richtung die Strategie einer Geschäftseinheit ausgerichtet werden sollte. Alle sonstigen Methoden sind mit Blindflug vergleichbar. Wenn bei einem langen, vergnüglichen Flug durch den Nebel plötzlich aus dem Nebel ein Felsen sichtbar wird, ist es in der Regel zu spät, das Steuer herumzureißen. Der Kapitän verweist vor dem Aufprall auf seine erfolgreiche Strategie. Nach dem Aufprall wird er externe Faktoren verantwortlich machen (insofern er überlebt) – vermutlich haben geotektonische Aktivitäten plötzlich Felsen wachsen lassen. Es kommt allein darauf an, Methoden zu verwenden, die uns vorhersehen lassen worauf wir hinzusteuern. Das ist das Einzige was zählt. Es kommt nicht darauf an, wie plausibel eine Theorie klingt. Plausible Theorien müssen einfach sein. Im Gegenzug wissen wir jedoch, dass wir für komplexe Systeme komplexe Methoden brauchen, um diese zu managen. Daher scheint mir Vorsicht vor einfachen Theorien und Managementmoden mehr als angebracht.

 

Ist die strategische Businessausrichtung geklärt, muss geschaut werden, welche Zielkunden die eigenen Stärken wirklich wertschätzen werden. Das ist das Thema Targeting und Segmentierung. Für jedes Zielsegment sollte man sich wiederum in bestimmten Bereichen fokussieren. Denn Fokussierung ist die bei Weitem effizienteste Methode, um besser zu werden. Warum? Weil mit wenigen wichtigen Stellhebeln meist der Großteil der erreichbaren Effekte erzielt werden kann. Um die Fokussierung von Aktivitäten (inkl. der Kommunikation mit Kunden) geht es beim Thema Positionierung.

Fallbeispiel: Positionierung eines Finanzdienstleisters

Ein Anbieter von Dachfonds für institutionelle Anleger stand nach einem Merger vor der Aufgabe, sich neu auszurichten und zu positionieren. Die ersten Entwürfe einer Positionierung waren für das Management unbefriedigend. Am liebsten wollte sich das Führungsteam auf allen Punkten positionieren, bei denen es glaubte, dass diese den Kunden wichtig sind. Darüber hinaus offenbarte eine interne Befragung, dass die internen Experten doch eine eher heterogene Meinung über die zentralen Erfolgsfaktoren am Markt hatten.

Wir strukturierten die Suche gemäß der Logik, dass eine Positionierung auf Merkmalen sinnvoll ist, in denen man einen Wettbewerbsvorteil besitzt (oder besitzen wird) und die zugleich dem Kunden sehr wichtig sind. Daher musste die relative Kundensicht im Wettbewerbsvergleich aufgenommen werden und zugleich die wahre Bedeutung der Merkmale ermittelt werden. Eine umfangreiche Liste an potenziell wichtigen Positionierungsmerkmalen war schnell durch interne Workshops erarbeitet. Die Kundenbeurteilung aller relevanten Anbieter in den Merkmalen wurde durch eine Marktforschung aufgenommen.

Die Kür lag jedoch in der Analyse dieser Daten. Dabei kam wiederum eine spezielle multivariate Analysemethode zum Einsatz. Diese Methode analysierte, welchen Einfluss die Beurteilung in den Merkmalen relativ zum besten Wettbewerber auf die Anbieterpräferenz und Kaufentscheidung hat. Die hier wichtigsten Merkmale sind potenzielle Positionierungsfaktoren. In folgender Abbildung ist die sogenannte Wettbewerbsvorteilsmatrix zu sehen, in der die Wichtigkeit auf der Y-Achse mit der relativen Performance im Vergleich zum besten Wettbewerber je Merkmal kontrastiert wird. Es ist ersichtlich, dass ein Wettbewerbsvorsprung im Bereich Reporting-Qualität besteht, die auch zu den TOP-4-Merkmalen gehört. Im Ergebnis wurde eine Positionierung erarbeitet, die sich auf hohe Due-Diligence- und Reporting-Qualität bezog. Weiterhin wurden Verbesserungsprojekte zur Optimierung der Wahrnehmung der Expertise und des Kundenbeziehungsmanagements angestoßen. Mit Hilfe des multivariaten Modells konnte überdies simuliert werden, welcher Mehrumsatz bei Erfolg zu erwarten war. Denn die Analyse ermittelt ein Modell darüber, wie Kunden sich entscheiden. In diesem Fall waren sagenhafte 26 % Umsatzsteigerung durch 3 Verbesserungsprojekte zu erwarten.

 

Fallbeispiel: Positionierung einer Kosmetikmarke

Ein junges Tochterunternehmen eines führenden Kosmetikkonzerns hatte in den letzten Jahren durch die hervorragenden Produkteigenschaften ein starkes Wachstum erfahren. Die hochinnovativen Produkte sind nur in Apotheken, bei Dermatologen und in Schönheitskliniken erhältlich. Die aktuelle Positionierung war durch Verpackungsdesign und Marketingmaterialien implizit sehr wissenschaftlich. Jedoch herrschte aufgrund der vielfach vorhandenen Produktvorteile Verwirrung und Uneinigkeit über die richtigen Positionierungsdimensionen.

Wir führten eine Zielgruppenbefragung in Kosmetikapotheken durch und profilierten diverse Wettbewerbsmarken auf 40 möglichen Erfolgsfaktoren und nahmen die Markenpräferenz auf. Wie im vorherigen Beispiel wurde anhand einer speziellen multivariate Analysemethode untersucht, wie die Wahrnehmungsdifferenz auf den potenziellen Erfolgsfaktoren sich auf die Markenpräferenz auswirkt. In der nächsten Abbildung ist das Ergebnis sichtbar. Im Kern empfahlen wir dem Unternehmen:

  • Positionieren Sie die Marke durch Fokus auf besonders wirksame Inhaltsstoffe.
  • Begründen Sie die Bedeutung der Inhaltsstoffe mit den besonderen Effekten der Produktleistung.
  • Achten Sie bei diesen Aspekten darauf, nicht lediglich die absolute, sondern vielmehr die relative Leistung zum Wettbewerb zu erläutern, um so die Einzigartigkeit herauszustellen.

 

 

Beide Beispiele der Positionierung haben eines gemeinsam. Sie beziehen sich auf eine eher homogene und sehr spezialisierte Zielgruppe, sodass keine besondere Segmentierungsanalyse notwendig erschien.

Unterscheiden sich Zielkunden jedoch grundsätzlich in dem, was sie an Angeboten wertschätzen, ist es sinnvoll, zuvor eine Segmentierung zu erarbeiten. Wie findet man nun diese Segmente? Schlägt man das Lehrbuch auf, findet man eine verwirrende Vielfalt. Häufig in der B2C-Praxis angewendet ist beispielsweise eine Segmentierung nach Lebensstilen, Werteclustern oder Einstellungsgruppen. Kennen Sie beispielsweise die Sinus-Wertecluster? Die sind auch seit Jahrzehnten sehr beliebt, weil sie so schön anschaulich sind. Die Segmentierung danach geht ganz einfach. Man nimmt sich passende Gruppen aus diesen Konzepten, argumentiert ein wenig, warum es sinnvoll ist, diese anders zu bedienen, und schon ist die Sache rund. Tatsächlich ist dies jedoch haltloses Storytelling – Management aufs Geratewohl. Warum? Weil die Segmente nicht mit der Maßgabe gebildet wurden, in Wirkbeziehung zum Erfolg zu stehen. In einer Welt in der der Erfolg viele Väter hat, muss man zwangsläufig quantitativ vorgehen. Auch wenn man die Nachteile der quantitativen Analyse nicht mag.

In einer guten Segmentierung sind Kunden einander ähnlich, wenn sie im gleichen Segment sind, und sehr unähnlich, wenn sie in unterschiedlichen Segmenten sind. Viel wichtiger für wirksame Segmentierung sind jedoch die Kriterien, mit denen man die Ähnlichkeit ermittelt. Ähnlichkeit aufgrund von beliebigen Kriterien ist unwirksam. Sie ist nur effektiv, wenn die Segmentmitglieder sich in dem ähneln, wie sie ihre Kaufentscheidung treffen – also was ihnen besonders wichtig bei der Wahlentscheidung ist. Wie findet man also heraus, was dem Zielkunden wichtig ist? Man beobachtet, was er von bestimmten Leistungsbündeln hält. Das geht wieder entweder mit Experimenten (wie Conjoint Measurement oder Produkttestexperimenten) oder unter Anwendung der multivariaten Ursachenanalyse von Beobachtungs- bzw. Befragungsdaten, die in Marktforschungsstudien erhoben werden können.

Zum Beispiel kann man den Zielkunden fragen, wie er die fünf wichtigsten Produkte auf dem Markt entlang der 10 wichtigsten Entscheidungskriterien bewertet. Zugleich fragt man ihn vorab, welche der Produkte er bevorzugt oder gar für welche er sich entschieden hat. Jetzt schlägt wieder die Stunde der Ursachenanalyse, denn wenn zehn Entscheidungsmerkmale zeitgleich Einfluss auf die Produktwahl haben, brauchen wir Methoden, welche die Effekte der einzelnen Ursachen separieren können. Das geht nur mit multivariaten Analyseverfahren. Diese sagen uns, welche Veränderung der Ursachen im Durchschnitt welche Wirkung auslöst. Für Targeting & Segmentierung brauchen wir aber keine Durchschnittsangaben. Wir möchten wissen, welche Kundengruppen sich in den Anforderungen in welcher Weise unterscheiden. Lassen Sie mich die Vorgehensweise an einem praktischen Fall erläutern.

Fallbeispiel: Segmentierung bei einem Industriegüterhersteller

Ein internationaler Hersteller von Industrieverpackungen hatte vor einigen Jahren eine Kundensegmentierung eingeführt. Ein Berater hatte vorgeschlagen, die Kunden in die Preiskäufer, die Service Seeker, die TCO-Käufer und die Produktqualitätsorientierten zu unterteilen. Leider stellte sich die Segmentierung als nicht zu Ende gedacht heraus. Zum einen klappt es kaum, Kunden richtig zu kategorisieren. Eine Checkliste von 20 Kriterien über Produkt und Servicefeatures, die der Kunde heute bezieht, stellte sich als wenig valide heraus. War ein Kunde einmal kategorisiert, gab es keinen genau definierten Prozess, wie die Kunden unterschiedlich behandelt werden sollten.

Daher war das Unternehmen auf der Suche nach einer neuen brauch- und umsetzbaren Segmentierung. Dazu wurde eine Kundenbefragung durchgeführt. Hiermit identifizierten wir mit speziellen multivariaten Analysemethoden vier zentrale Treiber für die Kundenbindung: Competitive prices, Meetings extension, Order processing und Inhouse integration.

Mit der verwendeten Analysemethode war es möglich, die Wichtigkeit der Treiber für jeden Befragten separat anzugeben.[3] Dies ermöglichte es uns, eine Clusteranalyse auf Basis der Treiberbedeutung durchzuführen. Damit können die Befragten gefunden werden, die sich einander ähneln, wobei der Gruppenmittelpunkt sich idealerweise stark von den anderen Gruppen unterscheidet. Im Ergebnis erhielten wir einige Segmente, die inhaltlich mit Begriffen wie Anspruchsvolle, Total Cost of Ownership, Altmodisch Preisbewusste oder Operativ-Fokussierte beschrieben wurden. Das Problem bei solchen Analysen ist die Praktikabilität. Woher weiß ich, ob ein Kunde, der vor mir sitzt, ein Anspruchsvoller oder ein Operativ-Fokussierter ist? Ich müsste streng genommen wieder die gleiche Befragung beim Kundenbesuch durchführen. Weiterhin ist ein Clustering immer willkürlich, da es kein absolutes Kriterium dafür gibt, was ein Cluster ausmacht und wie viele Cluster in einem Datensatz vorliegen.

Daher haben wir die Befragten auf Basis von inhaltlichen Vorüberlegungen gruppiert. Dieses Vorgehen nennt man Apriori Segmentierung. Und hier wurden wir bei einer Gruppierungsvariante fündig. Die Segmente „Committed Customers“ und „A-Kunden“ unterschieden sich komplementär in dem, was diese wertschätzten. A-Kunden sind typische Kunden mit großer Nachfrage, die aus strategischen Gründen mit einer Mehr-Lieferanten-Strategie einkaufen. Diese Kunden haben zentrale Einkaufsabteilungen, in denen der Entscheider der Einkäufer ist. Diesem ist der Preis und eine gute Betreuung wichtig. Hingegen ist beides dem Committed Customer weniger wichtig. Ihm ist wichtig, dass die Zusammenarbeit auf operativer Ebene perfekt läuft und die Unternehmen operativ verzahnt sind, um Produktionsprobleme zeitnah zu lösen. Es ist zwecklos einem A-Kunden eine Innovation verkaufen zu wollen, da er immer einen Zweitlieferanten braucht. Hingegen ist es wenig profitabel den Commited Customer mit Preiszugeständnissen zu ködern, während man sich sonst nicht besonders um ihn kümmert. Diese einfache, äußerst nützliche und inhaltlich sinnvolle Segmentierung war Ergebnis einer komplexen Analysemethodik.

Manche Leser mögen sich fragen: Ist Segmentierung nicht ein reines Marketingthema? Die Ausrichtung der Segmentierung beginnt mit dem Kunden, denn diese definieren immer den Unternehmenszweck – niemals die Shareholder, Mitarbeiter oder Lieferanten. Die Umsetzung geht durch das gesamte Unternehmen. Bei der Einführung einer Segmentierung sieht man sich Widerständen ausgesetzt. Der Bereichsleiter der Produktion fragt sich natürlich, warum er seine glatt laufenden Produktionsprozesse individualisieren soll und so Kapazitätsauslastung reduzieren soll. Der Vertriebsleiter fragt sich, warum er nicht weiterhin jeden Kunden individuell behandeln soll – ohne zu merken, dass er in Wirklichkeit jeden Kunden gleich behandelt, jedem Kunden das Gleiche erzählt und jedem das Gleiche anbietet. Der Einkauf fragt sich, warum er unterschiedliche Materialqualitäten beschaffen und so Einkaufsmacht verlieren soll. Ohne zu sehr ins Thema Segmentierung einzutauchen, soll dies nur illustrieren, dass Kundenindividualisierung Kosten verursacht. Zum einen tatsächliche Kosten und zum zweiten organisatorische Kosten. Individualisierung ist nun mal teurer als Schema F. Das hat schon Henry Ford gewusst, der mit dem Satz „Sie können ihr Auto in jeder Farbe haben, solange es schwarz ist“ eine komplette Industrie erst ermöglicht hat. Daher ist es ökonomisch sinnvoll, ein Optimum zu finden. Das Optimum ist eine angemessene Segmentierung in wenige differenzierte Leistungsbündel, die auf sehr unterschiedliche Kundengruppen zugeschnitten sind. Und das ist in der Tat ein Thema der Unternehmensstrategie.

Anwendungsbereiche zusammengefasst

Lassen Sie uns zusammenfassen, in welchen Bereichen multivariate Ursachenanalysen sinnvoll eingesetzt werden sollten.

Jedes Unternehmen verkauft Produkte und/oder Dienstleistungen an Kunden (Verkauf). Um diese Leistung erbringen zu können, bezieht es Güter und/oder Dienstleistungen von Lieferanten (Einkauf) und wandelt diese in einem wie auch immer gearteten Prozess um (Produktion). Darüber hinaus wird implizit oder explizit eine Strategie erstellt und verfolgt. Die Mitarbeiter (und damit die Organisation) werden durch die Führungskräfte gemanagt. Weiterhin können diverse administrative Funktionen wie IT oder Finanzen dazukommen, wenn diese Funktionen nicht von Dienstleistern zugekauft werden.

Das skizzierte vereinfachte Schema habe ich unten dargestellt. Rot sind solche Bereiche gefärbt, die in besonderer Weise soziale Systeme managen müssen. Ihre Aufgabe ist daher besonders komplex, da Zielgrößen viele Ursachen haben. Aus diesem Grund ist die Anwendung multivariater Methoden in diesen Bereich besonders nützlich.

Ich habe in diesem Kapitel dargestellt, wie die Strategie durch Segmentierungs- und Positionierungsanalysen optimal ausgerichtet werden und mit Hilfe der PIMS-Datenbank optimiert werden kann. Weiterhin habe ich intensiv am Bereich Verkauf gezeigt, in welchen Bereichen das Vorgehen effektiver und effizienter gestaltet werden kann. Analog finden sich ähnliche Anwendungsfelder im Bereich Einkauf und Management des Personals.

Es wurde hoffentlich deutlich, wie nützlich multivariate Analysemethoden sein können. Doch wie setze ich die Erkenntnis um? Kaufe ich mir einfach eine Analysesoftware und los geht’s? Im folgenden Kapitel möchte ich aufzeigen, worauf bei Auswahl einer geeigneten Analysemethode geachtet werden sollte. Denn wie überall steckt der Teufel im Detail.

 


[1] Mehr zur „Ich“-Illusion finden Sie in Susan Blackmore inspirierendem Buch „Meme Machine“

[2] Karl Popper 1926

[3]Das verwendete Feature ist als Hierachical Bayes Methode bekannt.

Veröffentlicht unter Kapitel 4 | Kommentare deaktiviert für 4. Digitale Spürhunde im Einsatz: Anwendungsfelder multivariater Ursachenanalysen

5. Was macht einen guten digitalen Spürhund aus: Die Wahl der richtigen Methode

Was müssen die Methoden können, die uns beim Aufbau von Wissen unter Rückgriff auf Daten helfen sollen? Um gute Methoden auswählen zu können, muss ich als Erstes verstehen, welche Anforderungen die Praxis an diese Methoden stellt.

Das klingt trivial. Jedoch scheinen dies die meisten Methodenexperten heute zu übersehen. Warum? Weil die Anforderungen der Praxis im Grunde nur die Praxis kennt. Wissenschaftler haben einen anderen Fokus und haben daher oft wenig mit den Anforderungen der Praxis zu tun. Wirtschaftswissenschaftler suchen nach allgemeinen Theorien, die bei der Führung aller Unternehmen helfen – ein hehres, aber vermutlich zu hohes Ziel, wie ich meine. Statistiker suchen nach Methoden, die bestimmte statistische Eigenschaften verbessern. Nur welche Eigenschaften sind die für die Praxis wichtigen? Unternehmensberater suchen Lösungen, die dem Kunden einleuchten und sich verkaufen. Keiner – außer die Unternehmen selbst – hat ein ureigenes Interesse, die Anforderungen der Praxis aufzudecken und ihnen gerecht zu werden.

Die erste Anforderung an nützliche Methoden der Ursachenanalyse haben wir bereits kennengelernt. Diese Methoden müssen viele Treibervariablen gleichzeitig im Verbund analysieren können. Dies tun sogenannt multivariate Methoden. Genügt das schon? Was sollte eine brauchbare Methode außerdem noch können?

Wie Kolumbus sein: Entdecken können

 

In einem Projekt zur Erarbeitung einer Segmentierungsstrategie suchte ein Industrieunternehmen die wesentlichen Entscheidungsfaktoren der Kunden. Wir befragten gestandene Industrieexperten mit kumuliert hunderten Jahren Vertriebserfahrung. Die in der folgenden Grafik links zu sehenden Faktoren in grün waren die nach Expertenmeinung wichtigsten Kriterien, wobei die im weißen Feld auch einen Einfluss hatten. Die Kriterien im roten Feld fügten wir aufgrund theoretischer Überlegungen von Branchenoutsidern hinzu. Jetzt schauen Sie einmal, was eine entdeckende multivariate Ursachenanalyse im rechten Teil der Abbildung ergeben hat! Zwei der drei ungenannten Kriterien sind unter den Top 3. Nur eines der nach Expertenmeinung wichtigen Kriterien schafft es in die Top 5.

 

Expertenwissen oder andere „anerkannten“ Theorien sind weit schlechter, als wir glauben wollen. Das ist ein großes Problem. Wäre es daher nicht enorm nützlich, Methoden zur Verfügung zu haben, die gänzlich neues Wissen aus Daten ableiten können?

Im genannten Beispiel wurden unbekannte Erfolgsfaktoren als zentral identifiziert. Das nenne ich Wissenszugewinn. Oder wie es ein Pionier der Kausalanalyse, Professor Bookstein, bei einer Konferenz 2009 in Peking zu mir gesagt hat: „Analysemethoden sind nur dann nützlich, wenn Sie prinzipiell eines können: Dich so zu überraschen, wie eine Harke Dir zwischen die Augen schlägt, wenn Du ausversehen drauftrittst.“

Okay, macht Sinn. Aber können das nicht alle multivariaten Methoden?, mögen Sie jetzt vielleicht denken. Leider nein. Tatsächlich haben noch immer bestätigende Methoden die Überhand in Wissenschaft und Praxis. Dazu ein Beispiel.

Ein deutscher Mobilfunk-Dienstleister wollte herausfinden, worauf man beim Launch eines neuen Mobile-Service (bestimmte Mobile Wallet Services) zu achten habe. Die Studie wurde im Rahmen einer MBA-Theses wissenschaftlich – also sehr sorgsam und mit state-of-the-art-Methoden begleitet. Herauskam ein Analyseergebnis mit einer herkömmlichen Analysesoftware. Ihre Ergebnisse werden dann als richtig angesehen, wenn alle Annahmen korrekt sind. Alle Pfade und Nichtpfade, die Linearitätsannahme, die Verteilung der Daten und vieles mehr müssen stimmen, damit die Analyseergebnisse stimmen. Man nennt diese Methoden konfirmatorisch, da sie die Anfangshypothesen annehmen oder ablehnen und ein paar Pfadstärkeparameter ausspucken – mehr nicht. Die Ergebnisse sind in der folgenden Abbildung links zu sehen. „Relative Advantage“ ist das wichtigste Kriterium. Daraus folgerte man, dass der Produktnutzen hervorgehoben werden musste. Rechts hingegen sehen Sie die Ergebnisse der anderen Analysemethode, die der clevere MBA-Absolvent hinzugezogen hatte. Mit dieser ist es möglich, auch andere Ursachen mit einzubeziehen, die aus Sicht des logischen Menschenverstands her auch ggf. Einfluss haben können. Die herkömmliche Methode kann diese Größen aus zwei Gründen nicht aufnehmen: Zum einen sind einige nicht metrisch verteilt und verstoßen damit gegen die Modellannahmen (so wie das Geschlecht, das binär verteilt ist). Zum anderen dürfen nur vorher bestätigte Zusammenhänge aufgenommen werden – jedoch keine vagen Vermutungen. Das Resultat sind sehr verschiedene Ergebnisse. Die alternative Methode zeigt, dass andere Größen (wie der Technologietypus des Zielkunden oder die wahrgenommene Einzigartigkeit des Angebots) nachweislich und hochsignifikant ebenfalls einen Einfluss haben. Interessanterweise stellte sich heraus, dass Uniqueness die Einschätzung von „Relative Advantage“ maßgeblich beeinflusst. Zielkunden, die das Produkt einzigartig finden, attestieren dann auch einen gewissen Produktvorteil. Nicht umgekehrt. Das steht natürlich auch im Einklang mit den neuen Erkenntnissen der Neuroforschung. Wichtiger aber ist eine komplett andere Empfehlung, die abgeleitet wurde. Nicht eine rationale Kommunikation aller Vorteile steht im Zentrum, sondern die Vermittlung der Einzigartigkeit – was einer emotionalen Kampagne gleichkommt – wurde empfohlen.

Wir brauchen also Methoden, die uns helfen, Wissen und Erkenntnisse zu entdecken. Wir brauchen Methoden, die uns helfen zu lernen. Wir brauchen diese auch deswegen, weil wir chronisch dazu neigen, unser Expertenwissen, zu überschätzen.

Ich habe mich selbst lange Zeit dabei beobachtet, wie sich meine Meinung bei Experteninterviews über den zu findenden Zusammenhang entwickelt. Und ich musste immer wieder feststellen, dass ich mir nach drei oder vier Interviews ziemlich sicher war, wo der Hase langläuft. Experten konnten mir danach erzählen, was sie wollten, ich neigte dazu, weniger hinzuhören und Fragen zu stellen, die meine Meinung bestätigten. Hat man sich einmal eine Meinung gebildet, steht die fest. Meist ein Leben lang. Fragt man Statistiker, wie valide eine Stichprobe von 3 oder 4 ist, erntet man nur mildes Lächeln.

Noch immer haben gerade im Bereich des Marketings und der Marktforschung konfirmatorische Analysen die Oberhand. Wozu mache ich denn eine Analyse in der Praxis? Doch nicht um eine Hypothese zu bestätigen. Allein das rechtfertigt oft nicht den Aufwand. Zudem fehlt einfach die Gewissheit für das Aufstellen eines Hypothesenmodells. Nein, es geht in der Praxis grundsätzlich darum, neues Wissen zu erlangen – man will lernen.

Wo kommt das Wissen her, mit dem die konfirmatorischen Modelle gebildet werden? Welche wissenschaftliche Methode ist denn die Quelle der Hypothesen? Streng genommen müssten das immer Experimente sein – das sind es aber im seltensten Fall. Fast immer lügen sich die Anwender herkömmlicher Methoden bei der Einschätzung der Validität ihrer Annahmen selbst in die Tasche. Das ist ein offenes Geheimnis. Das werden Ihnen selbst Befürworter des konfirmatorischen Ansatzes bestätigen.

Glücklicherweise ist es durchaus möglich, aus Erfahrungswerten zu lernen. Das wusste schon Immanuel Kant, der es auf den Punkt brachte: „Die Erfahrung ist die einzige Quelle der Erkenntnis.“ Später hat Professor Granger ein neues Verständnis darüber formuliert, ab wann man aus Erfahrungsdaten Kausalität ableiten kann. Dafür hat er vor ein paar Jahren auch den Nobelpreis erhalten. Seine Theorie steht in genauem Widerspruch zu dem in den Wirtschaftswissenschaften verbreiteten Konfirmationsglauben. Eine Größe A ist immer dann Ursache der Größe B, wenn alle möglichen Ursachen bekannt und quantifiziert vorliegen und A unter allen am besten geeignet ist, einen Teil einer zeitlich nachgelagerten Änderung von B zu erklären.

Der Nachweis der zeitlichen Nachgelagertheit ist in vielen Fällen praktisch nicht möglich. Bislang musste man sich hier damit aushelfen, die Kausalrichtung durch Vorwissen festlegen zu müssen. Doch auch in diesem Feld gibt es neue wissenschaftliche Erkenntnisse. Man kann heute anhand von Querschnittsdaten feststellen in welche Richtung die Kausalität verläuft. Die Bedeutung ist immens. Denn in vielen Fällen ist dies dem Experten schlichtweg nicht bekannt. Führt die Servicezufriedenheit zu mehr Kundenbindung oder führt eine höhere Kundenbindung zu einer besseren Einschätzung der Servicezufriedenheit? Die Beantwortung solcher Fragen legt fest, welchen Einfluss welche Erfolgstreiber besitzen.

Vorsicht vor Expertenwissen. Vorsicht vor „wissenschaftlich fundierten“ Modellen. Und Vorsicht vor den herkömmlichen, starren Analysemethoden.

In der Praxis nützliche Methoden müssen in der Lage sein, NEUE Erkenntnisse zu erzeugen. Nützliche Methoden sind entdeckende Methoden.

Welche multivariaten Methoden arbeiten entdeckend? Die im Einsatz befindlichen herkömmlichen Methoden[1] sind es in jedem Fall nicht. Entdeckende Methoden[2] sind erst in den letzten Jahrzenten entwickelt worden. Um sich für eine davon zu entscheiden, müssen wir jedoch auf weitere Anforderungen eingehen.

 

Erkennen, was da ist: Komplexität entdecken können

 

Eine weitere Annahme, die herkömmliche Methoden voraussetzt, ist die Linearität der Zusammenhänge. Linear ist ein „je mehr, desto besser“-Zusammenhang. Das ist ein Zusammenhang, bei dem eine zusätzliche Steigerung der Ursache immer die gleiche Effektsteigerung bringt.

Schauen wir uns einfach einmal zwei Beispiele an. Ein Beispiel haben wir schon gesehen. Damit Sie nicht zurückblättern müssen, hab ich es hier noch mal eingefügt. Hier haben wir für ein Pharmaunternehmen die Verkaufsförderungsmaßnahmen zu einem bestimmten Produkt angeschaut und u. a. festgestellt, dass die Ausgabe von kostenlosen Produktproben durch den Außendienst einen anfänglich positiven Effekt auf den Abverkauf hat. Doch ab einer bestimmten ausgegebenen Menge an Proben wirkt es abverkaufshemmend. Warum? Vermutlich weil die Ärzte dann so viele Proben ausgeben, dass die Patienten weniger oder keine Medikamente mehr selbst kaufen müssen. Simpel und logisch. Die Realität ist voller Nichtlinearitäten. Mehr ist eben nicht immer besser.

Ein anderes Beispiel. Ich führe regelmäßig Analysen von Kundenzufriedenheitsbefragungen durch. Hier wird u. a. der Einfluss der Kundenzufriedenheit auf das übergeordnete Ziel der Kundenbindung untersucht. Mit herkömmlichen Methoden weißt man hier einen klaren Zusammenhang nach – je mehr Zufriedenheit, desto besser. Was ich bei vielen Unternehmen feststelle, ist, dass die Wirkung von Kundenzufriedenheit jedoch in Wirklichkeit abflacht. Die nächste Abbildung zeigt das. Sobald die Zufriedenheit unterhalb des mittleren Status sinkt (das entspricht dem Skalenpunkt „weder noch“), so sinkt die Kundenbindung drastisch. Zufriedenheit ist daher kein Faktor, welcher Kunden bindet. Vielmehr löst Unzufriedenheit Wechselabsichten aus. Zufriedenheit ist also eine Art Grundbedingung dafür, dass ein Kunde die Geschäftsbeziehung aufrechterhält. Ist das logisch? Scheinbar gibt es hier noch andere Gründe, um sich an das Unternehmen gebunden zu fühlen. Beispielsweise gibt es Unternehmen, deren Kunden entscheiden sich für deren Produkte und Services, weil diese einfach die besten sind oder für den Zweck die einzige Wahl.

Methodisch versierte Leser fragen sich jetzt: Woher wissen wir, dass die herkömmlichen Methoden hier falsch liegen? Die Antwort ist einfach: Ich prüfe, wie gut ein Modell in der Lage ist, Daten, die das Modell nicht kennt, zu prognostizieren. Wenn diese prognostische Validität höher ist, ist das ein starkes Zeichen dafür, dass das Modell in höherem Maße der Realität entspricht. Weiterhin muss der identifizierte Zusammenhang plausibel sein (Face Validity). Drittens sollte das Modell vollständig sein. Aufgrund der methodischen Voraussetzungen (weitaus mehr Treibervariablen werden verwendet) sind meine Modelle meist deutlich vollständiger als herkömmliche Modelle.

Unsere Welt ist inhärent nichtlinear – all das kann man im Detail beim Pionier der systemischen Forschung Frederik Vester nachlesen. Wenn Ihr Unternehmen mehr Kapital hat, kann es dann mehr damit erreichen? Die Antwort ist: ja natürlich. Jedoch ist höchstwahrscheinlich der erste Euro der effektivste. Wenn Sie jetzt argumentieren, dass es aber Mindestkapitalbedarfe gibt, da es keine Maschine für einen Euro gibt, haben Sie auch hier Recht. Nur ist dies ein zweites Beispiel für Nichtlinearität. Denn dann ist der 1 Euro nichts wert, da man z.  B. mindestens 100 Euro für irgendeine Maschine braucht. Es gibt tausende von Beispielen. Statistiken zeigen, dass die Wertschöpfung von Mitarbeitern sinkt, je mehr im Unternehmen arbeiten. Klar. Der erste Mitarbeiter ist am wertvollsten, da ohne ihn gar nichts läuft. Der Grenznutzen sinkt natürlich.

Die Wirklichkeit ist voller nichtlinearer Zusammenhänge. Mehr ist nicht immer besser.

Es hat eine große Auswirkung auf meine Entscheidung, wenn ich weiß, was der tatsächliche Effekt einer zusätzlichen Änderung der Ursache ist.

 

Jetzt wird’s noch komplizierter. Eine weitere Annahme herkömmlicher Methoden ist, dass die Ursachen unabhängig voneinander wirken. In der folgenden Metapher, die in der nächsten Abbildung dargestellt ist, geht es um Jim. Er ist ein Tomatenbauer, der die Erfolgsfaktoren des Wachstums seiner Tomatenpflanzen herausfinden will, um höhere Erträge zu erzielen. Er identifiziert zwei Erfolgstreiber: Sonne und Wasser. Um Wasserkosten zu sparen, lässt er Wasser weg und verdoppelt die Lichtmenge. Das Ergebnis ist fatal. Dann probiert er das Gegenteil – wenig Sonne, und viel Wasser. Hier ertrinken die Pflanzen und verfaulen. Dann probiert er viel Sonne und viel Wasser. Auch das endet im Desaster. Nach jahrelangem Feintuning hat er genügend Erfahrungswerte: Man braucht beides, Wasser und Sonne, um eine Pflanze gut wachsen zu lassen. Zudem darf beides nicht überhand nehmen. Beide Erfolgsfaktoren bedingen sich gegenseitig. Sie sind nicht unabhängig, da ein Faktor das Fehlen des anderen nicht kompensieren kann.

Ein amüsantes Comic-Video dazu finden Sie in meinem Youtube-Channel:
http://www.youtube.com/user/DrFrankBuckler mit dem Titel „Find Success Levers with NEUSREL“

Das Gegenteil von Unabhängigkeit sind Interaktionen. Dies sind Wechselwirkungen bzw. Moderationseffekte zwischen Ursachen. Beides sind Synonyme. Die Tomaten-Metapher zeigt sehr gut, was eine Interaktion ist. Gibt’s solche Interaktionen auch in der Unternehmenspraxis? Richtig erraten: Es gibt jede Menge.

Eine Geschmacksprobe: Ich habe den Einfluss verschiedener Geschmackskomponenten von Biermixgetränken auf ihren Einfluss auf die Präferenz untersucht. In der herkömmlichen Vorstellung summieren sich die verschiedenen Eigenschaften eines Getränks wie ein Scoringmodell auf zu einem Gesamtwert, der dem entspricht, wie stark ein Mensch ein Getränk mag. In meiner Analyse jedoch stellte sich eine sehr starke Interaktion der Komponenten „Full taste“ und „Metallic taste“ heraus. Ein Getränk wird nur dann präferiert, wenn es einen vollen Geschmack UND geleichzeitig keinen metallischen Geschmack hat. Beides muss gegeben sein. Ein Abwägen findet nicht statt.

Noch ein anderes Beispiel. Hier geht es um eine Studie einer Einzelhandelskette, die herausfinden wollte, wie die Beziehung mit den Kunden verbessert werden kann, da dies als Gewinntreiber identifiziert wurde. Herkömmliche Methoden zeigen mir, dass Tangible Rewards (z.  B. Rabatte, Give-Aways, Beigaben, etc.) und die Qualität der zwischenmenschlichen Kommunikation wichtige Treiber sind. Demnach würde man jetzt in die Verbesserung beider Komponenten investieren, zumal die Methode ja „je mehr, je besser“ annimmt.

Mit einer geeigneten Methode habe ich eine hochinteressante Interaktion identifizieren können. Beide Treiber haben einen nachweisbaren Effekt, wenn – und nur wenn – der andere Treiber gering ausgeprägt ist. Beide Treiber wirken komplementär. Wenn die zwischenmenschliche Kommunikation perfekt ist, hat die Zugabe von z.  B. Rabatten keinerlei Effekt und ist damit rausgeschmissenes Geld. Wenn wir bei Kunden, die wir immer mit Zugaben verwöhnen, nun die zwischenmenschliche Kommunikation perfektionieren, erreichen wir nur geringe Zusatzeffekte. Entweder das Eine ODER das Andere. Intrinsische und extrinsische Kaufmotivation der Kunden scheinen sich zu behindern und nicht zu addieren. Die resultierende Empfehlung an das Unternehmen durch eine geeignete Methode ist wieder grundlegend anders als die von herkömmlichen Methoden. Entscheiden Sie sich für einen der beiden Treiber – je nach Kosten-Nutzen-Verhältnis.

Die Wirklichkeit ist voller Interaktionen. Manche Erfolgstreiber bedingen sich. Andere hemmen sich.

Daher müssen nützliche Methoden der Interaktivität von Ursachen Rechnung tragen.

Wir benötigen also Methoden, die nichtlineare und interaktive Zusammenhänge entdecken können. Dabei ist die Betonung auch auf „entdecken“ zu legen. Denn auch konfirmatorisch könnte man theoretisch Nichtlinearitäten modellieren. Das nützt jedoch nichts, wenn man im Vorhinein nicht weiß, welche Form die Nichtlinearität hat. Bei Interaktionen ist man noch mehr verloren, da man z.  B. nicht weiß, welche von 20 Treibern mit welchem anderen Treiber interagiert. Die Vielfalt der Möglichkeiten wird schnell exponentiell komplex.

Welche multivariaten Methoden können nichtlineare und interaktive Zusammenhänge entdecken und visualisieren? Neue entdeckende Methoden des Fachgebiets Maschinelles Lernen können mehr oder weniger gut nichtlineare und moderierende Zusammenhänge modellieren – jedoch nicht visualisieren. Sie leiden unter dem Black-Box-Syndrom. Der mehrdimensionale Gesamtzusammenhang ist in seiner mathematischen Form nicht verständlich. Dafür muss eine geeignete Nachanalysemethode gefunden werden. Am Ende des Kapitels nehmen wir eine solche Methode in unseren ganzheitlich leistungsfähigen Methodenverbund mit auf.

 

Mit dem auskommen, was man hat:
Mit kleinen Stichproben umgehen können

 

Die dritte zentrale Anforderung an nützliche Methoden ist von anderer Natur. Hier geht es nicht darum, was die Methode alles herausfinden können muss. Es geht darum, zu beachten, was eine valide Erkenntnis beschränkt. Die wichtigste und praktisch bedeutsamste Einschränkung ist die Anzahl der Erfahrungswerte – also die Stichprobengröße.

Theoretisch kann man alles aus Daten lernen, insofern alle wichtigen Größen quantifiziert vorliegen und unendlich viele Erfahrungswerte vorliegen. Leider ist diese Voraussetzung nie gegeben, da mit der Datenbeschaffung Kosten verbunden sind. Irgendwo ist immer der Punkt, wo die Datenerhebung mehr Geld verschlingt, als sie Nutzen erwirtschaftet. Zudem sind manche Erfahrungswerte ganz einfach zu selten, um auf eine riesige Anzahl zu kommen. Aufgrund dieser Tatschen ist es eine zentrale Anforderung an eine Methode, besonders effizient mit den Daten umzugehen. Es gibt vier grundlegende Herangehensweisen, die zusammen kombiniert werden können, um besonders effizient mit einer begrenzten Stichprobe umzugehen

Die Wahl zwischen Skylla und Charybdis:
Abwägen zwischen Modellkomplexität und Modellanpassung an Daten

Betrachten wir einmal folgende Abbildung (Quelle: Bishop 1995, S. 11f). In der linken Grafik a) sehen Sie anhand der gestrichelten Linie am besten, wie die Ursache x die Größe y beeinflusst. Das ist eine Art Berg und Tal Funktion (Mathematiker würden eine Sinusfunktion erkennen). Die Punkte in der Nähe der Funktion sind die Stichprobe – also unsere beobachteten Erfahrungswerte. Sie liegen nicht genau auf der Funktion, da es noch Zufallseinflüsse gibt. Aufgabe einer guten Methode ist es jetzt, anhand der Punkte herauszufinden, wie die gestrichelte Funktion tatsächlich aussieht. Denn die Wahrheit ist ja nicht bekannt und nicht sichtbar.

Grafik a) zeigt mit der durchgezogenen Linie, die Schätzung eines Modells, welches nur wenige Freiheitsgrade hat. Hier handelt es sich um ein lineares Modell mit nur zwei Parametern: Ein Lageparameter, der angibt wie hoch die Gerade liegt, und ein Steigungsparameter, der die Steilheit der Gerade bestimmt. Jetzt sehen Sie, dass die Erfahrungswerte deutlich von der durchgezogenen Gerade abweichen. Das ist ein klares Zeichen, dass das Modell nicht besonders gut ist.

In Grafik c) ganz rechts wurde das Modell mit zehn Freiheitsgeraden ausgestattet. Genauso viele Erfahrungswerte sind auch vorhanden. Wie Sie sehen liegt die Modellschätzung der durchgezogenen Linie genau auf den Erfahrungswerten. Der Schätzfehler ist so gut wie 0. Das Modell ist perfekt. Oder? Natürlich nicht, denn es weicht erheblich von der gestrichelten Linie ab.

Aufgabe einer guten Methode kann es also nicht allein sein, den Schätzfehler (der meist mit dem R2 gemessen wird) zu minimieren. Jeder zusätzlich eingeführte Freiheitsgrad in einem Modell erhöht die Wahrscheinlichkeit, dass das Ergebnis zwar die Erfahrungswerte aber nicht den wahren Zusammenhang abbildet. Freiheitsgrade bestimmen die Modellkomplexität.

Eine gute Methode muss im Suchprozess nach einem guten Modell zwei gegensätzliche Aufgaben miteinander abwägen. Sie muss eine gute Modellanpassung (geringer Fehler) und gleichzeitig eine geringe Modelkomplexität suchen. Für die Abwägung beider Bereiche gibt es einen Forschungszweig in der Statistik: die Bayes’sche Statistik. Diese ist eine gute Basis, um Algorithmen herzuleiten, die den Abwägungsprozess adäquat durchführen.

Das Ergebnis einer idealen Methode ist in Grafik b) dargestellt. Die Abweichung zwischen Modell und Erfahrungswerten ist hier klein – jedoch niemals Null. Die Modellkomplexität ist so klein wie möglich und so groß wie nötig.

Das Rad nicht neu erfinden: Vorwissen einbringen

Vorwissen ist eine sehr mächtige Waffe, die jedoch fatale Folgen haben kann, wenn Sie in falsche Hände gelangt. Wenn wir beispielsweise bereits im Vorhinein wissen, dass die Funktion in der vorherigen Abbildung einen Sinusverlauf hat, können wir das Modell entsprechend umbauen. Wir nehmen einfach eine Sinusfunktion und versehen diese mit Lage- und Amplitude-Parametern. Schon können wir mit zwei Parametern die wahre Funktion perfekt schätzen. Doch wenn mein Vorwissen falsch ist, z.  B. indem ich einen linearen Zusammenhang postuliere, bekommen wir schlechte Ergebnisse. Oft merkt man das Ausmaß der Fehlschätzung auch nicht am Schätzfehler R2, wenn die Erfahrungswerte sich in dem Bereich der Sinusfunktion, die recht linear ist, stark häufen.

Vorwissen kann in vielen anderen Bereichen eingebracht werden. Wenn wir wissen, dass nur ein oder zwei Faktoren wirklich relevant sind, brauchen wir die anderen zehn oder zwanzig Faktoren nicht berücksichtigen. Auch damit wird das Modell erheblich bessere Ergebnisse liefern. Ist die Annahme jedoch falsch, können schwerwiegende Fehlerkenntnisse die Folge sein, wie wir oben am Beispiel der Scheinkorrelationen gesehen haben.

Eine weitere Methode, Vorwissen zu verwenden, ist die Gewichtung von Fällen. Wenn wir wissen, dass 52 % der Bevölkerung Männer sind, aber die Stichprobe nur 26 % enthält, so müssen wir die Männer entsprechend übergewichten, damit die Ergebnisse auf die Realität anwendbar sind. Das sind nur einige von vielen Ebenen, in denen Vorwissen verwendet werden kann.

Mit der Anwendung herkömmlicher multivariater Methoden machen Sie automatisch viele Annahmen. Unbewusst bringen Sie somit Vorwissen ein. Insbesondere nehmen Sie an, dass die Zusammenhänge linear und die Treiber voneinander unabhängig sind – um nur die wichtigsten Punkte zu nennen. Diese herkömmlichen Methoden liefern hervorragende Ergebnisse, wenn die postulierten Annahmen richtig sind. Wie ich oben dargestellt habe, ist dies leider nur selten gegeben.

Wenn also mit richtigem Vorwissen die Schätzung verbessert werden kann, so wird eine kleinere Stichprobe an Erfahrungswerten benötigt, um zu der gleichen Güte zu kommen – im Vergleich zum Fall in dem man ohne Vorwissen operieren würde. Daher ist das Einbringen von Vorwissen nicht gut und nicht schlecht. Man muss sorgsam abwägen, wie viel man davon verwendet.

Der Apfel fällt nicht weit vom Stamm: Hierarchical Bayes

Vorwissen kann auch aus anderen Datensätzen gezogen werden. Im Hierarchical-Bayes-Ansatz beeinflusst man die Analyse eines Datensatzes mit den Ergebnissen der Analyse eines anderen Datensatzes. Nehmen wir ein Beispiel. Kundenzufriedenheitsstudien von Banken wollen meist eine Kundenzufriedenheit und individuelle Kundenzufriedenheits-Treiber für jede Filiale ausweisen. Wenn Sie 100 Filialen haben und in jeder 100 Kunden befragen, dann müssen Sie bereits 10.000 Kunden befragen. Das kostet eine Stange Geld. Hinzu kommt, dass Sie mit 100 Erfahrungswerten je Filiale nur sehr einfache Ursache-Wirkungs-Modelle aufsetzen können.

Wenn wir aber a priori annehmen, dass das, was einen Kunden in Filiale 1 zufrieden macht, vom Grundsatz her gleich dem der Filiale 2 sein müsste, dann könnte man Informationen von Filiale 2 borgen. So werden die Ergebnisse des Ursache-Wirkungs-Modells mit nur 100 befragten Kunden erheblich stabiler.

Den Wald trotz Bäumen sehen: Latente Variablen

Eine reflexive latente Variable ist so was wie Kundenzufriedenheit. Man kann es nicht beobachten. Daher stellt man Indikatorfragen wie z.  B.: „Wie zufrieden sind Sie mit X?“ Da jeder Indikator nur bedingt misst, was Kundenzufriedenheit ausmacht, kann man noch andere Indikatorfragen stellen wie: „Wie bewerten Sie den Anbieter alles in allem?“ Ein reflexives Konstrukt findet eine Art gewichtetes Mittel aus den Indikatorvariablen. Der Vorteil ist, dass das Konstrukt besser das misst, was es soll – z.  B. die Kundenzufriedenheit. Wenn ein Konstrukt dies besser tut als ein einzelner Indikator, dann erreicht man mit einer kleineren Stichprobe die gleiche Güte wie mit einer größeren Stichprobe und nur einem Indikator.

Eine formative latente Variable ist der Versuch, Detailfragen zu einem größeren Ganzen zu komprimieren und damit die Anzahl der Variablen zu reduzieren. Zum Beispiel sind die Anzahl der konsumierten Einheiten von Bier, Wein oder Schnaps drei kausale Indikatoren für Trunkenheit. In einem formativen Konstrukt fasst man alle drei zur Vereinfachung des Modells zum Konstrukt „Trunkenheit“ zusammen.

Theoretisch benötigt ein Modell mit steigender Variablenanzahl exponentiell mehr Fälle (zum Glück ist es in der Praxis nicht ganz so dramatisch). In jedem Fall steigt jedoch der Stichprobenbedarf stärker als die Anzahl der Variablen. Mit zwei Ursachen-Variablen brauchen Sie mindestens 10-20 Fälle für sehr grundlegende Erkenntnisse. Bei 20 Ursachen-Variablen (also 10-mal so viel) kommen Sie mit 100 Fällen kaum noch hin. Ich werde oft gefragt: „Wie viele Fälle brauchen wir denn?“ Diese Frage ist nicht einfach zu beantworten. Man kann gut eine Untergrenze angeben. Eine vernünftige Obergrenze gibt es jedoch nicht, da diese von der Komplexität des wahren Zusammenhangs abhängt. Ein linearer Zusammenhang braucht sehr viel weniger Daten als einer, in dem jede Variable mit jeder interagiert. Daher begrenzt man mit der Wahl der Stichprobengröße auch automatisch gleichzeitig die Komplexität der möglichen Ergebnisse.

Die Methode der Wahl muss effizient mit einer begrenzten Stichprobengröße umgehen können.

Dazu sollte diese die Modellkomplexität mit der Anpassung an Daten abwägen, sie sollte ermöglichen, auf allen Ebenen Vorwissen einzubringen, Hierarchical Bayes umgesetzt haben und das Bilden von latenten Variablen unterstützen.

 

Zusammengefasst sollten für das Management nützliche multivariate Ursachenanalyse folgende Anforderungen erfüllen. Sie sollten:

  1. Entdeckend vorgehen können,
  2. Komplexität entdecken können,
  3. mit kleinen Stichproben effizient umgehen können.

 

Gehen sie jetzt auf die Suche nach einer Methode, die alle diese Kriterien erfüllt, so werden Sie nicht fündig werden … bis auf eine Ausnahme, die ich gleich vorstellen werde.

Warum gab es bislang keine Methode? Die Antwort: Die Lösung liegt nicht auf der Hand. Eine genauere Antwort ergibt sich aus den folgenden vier Fakten:

Erstens ist der mathematische Ansatz der heutigen herkömmlichen Methoden (u. a. Strukturgleichungsmodelle) nur für bestätigende und nicht für die entdeckende Forschung geeignet. Eine Fortentwicklung auf Basis des gleichen Ansatzes ist schwer denkbar.

Weiterhin verfolgt die Mehrheit der Wissenschaftler, die sich mit Strukturgleichungsmodellen beschäftigen, einem bestätigenden (konfirmatorischen) Forschungsansatz. Sie erkennen eine Methode nicht an, die aus Datensätzen strukturelle Erkenntnisse gewinnt. Aus diesem Grund haben sich bislang auch nur wenige auf die Suche nach einer neuen Methodik gemacht.

Neue multivariate Methoden wie künstliche neuronale Netze sind erst in den letzten Jahren entwickelt worden. Künstliche neuronale Netze waren bislang für die Ursachenanalyse nicht geeignet, da diese am sogenannten Black-Box-Problem leiden: Sie liefern zwar eine höhere Erklärungskraft, machen jedoch nicht verständlich, wie sie zu diesem Ergebnis gekommen sind.

In den letzten zehn Jahren ist es mir gelungen eine Methode zu entwickeln und intensiv anzuwenden, die als erste den drei beschriebenen Bedingungen gerecht zu werden vermag. Ich habe die Methode Universal Structure Modeling und die Software dazu NEUSREL genannt.

 

Universal Structure Modeling und die Software NEUSREL

 

Ich hatte mich gerade im Wirtschaftsingenieurwesen für Elektrotechnik an der TU Berlin eingeschrieben und der tägliche Gang durch die Mensa führte im Herbst 1993 am Raum des studentischen Börsenvereins vorbei. Dieser war eher eine Art riesiger Glaskasten und eine lokale Bank hatte einen Rechner mit Chartsoftware und Reuters-Terminal gesponsert. So konnten alle Interessierten am großen Monitor schnell mal die Kurse checken. Ich ließ mir eines Mittags von einem Vereinsmitglied sein Handelssystem erklären. Er drehte an vielen Parameter und zeigte mir, dass man mit der richtigen Einstellung ordentlich Geld verdienen kann. Meine Gier war geweckt.

In der Folge trat ich dem Verein bei und stellte nach ersten Versuchen, ein Handelssystem zu erstellen, schnell fest, dass in der grundlegenden Herangehensweise, willkürliche Handelsalgorithmen an die Vergangenheit anzupassen, etwas faul war. Zeitgleich las ich etwas über künstliche neuronale Netze, die zu dieser Zeit aufgrund der Erfindung des Multi Layer Perceptrons 1986 einen Boom erlebten. Ihnen eilte der Ruf voraus, lernen zu können. Genau das brauchte man doch auch an der Börse. Eine Art Superhirn, das die Unmengen an Börseninformationen zielgerichtet verarbeiten kann. Glücklicherweise traf ich im Börsenverein einen Gleichgesinnten, der auch von neuronalen Netzen begeistert war. Gemeinsam mit ihm frischte ich meine Programmierkenntnisse wieder auf, die ich in der Jugend ausreichend aufgebaut hatte. Wir trafen uns regelmäßig, um zu forschen und ein eigenes Prognosemodell zu entwickeln, das alles bislang Dagewesene schlägt. Eine übermütige Idee für einen Zweitsemester. Aber uns war es egal. Es machte ja Spaß. Und in der Tat kam in den ersten Jahren nicht viel an Zählbarem heraus, außer dass wir in hunderten durchforschten Nächten wirklich sehr viel über Methoden für das Lernen aus Daten lernten. 1999 launchten wir dann eine Prognoseplattform, die unsere Prognosen veröffentlichte und später verkaufte – mit nachgewiesenen Trefferquoten seit Anbeginn.

Parallel nutzte ich die implementierten Algorithmen für künstliche neuronale Netze, um im Fach Personal in meiner Studienarbeit nachzuweisen, dass mit Methoden die Valenz-Instrumentalitäts-Erwartungs-Theorie überprüft werden kann. In meiner Diplomarbeit verwendete ich diese Methoden, um im Produktionsprozess von Fibreoptik-Bauteilen schon nach einem statt nach erst 12 Messvorgängen festzustellen, ob ein Bauteil defekt ist. Damit konnte die Produktionskapazität bei Siemens deutlich gesteigert werden, da diese Messstationen der Flaschenhals der Produktion waren.

Ich saß in dieser Zeit in vielen Vorlesungen und dachte mir: „Mmmh, das geht doch mit neuronalen Netzen viel besser.“ Es fing bei volkswirtschaftlichen Prognosen an, ging über Verfahren der Personalselektion, vorbei an Rohstoffpreisprognosen und Direktmarkting-Optimierungen bis hin zu Ursache-Wirkungs-Modellen in der Marketingforschung, die intensiv in der Vorlesung von Professor Trommsdorff besprochen wurden. Durch ihn wurde die Idee für NEUSREL vorbereitet. „Warum sehe ich als kleiner Student so viele Möglichkeiten und die großen Professoren und die Profis in den Konzernen machen weiter mit ihren“ – wie sich herausstellte – „gefährlichen Methoden?“, fragte ich mich. Dass die reale Welt nicht immer nach neuen, besseren Dingen schreit, lernte ich erst später.

Die Idee zu NEUSREL habe ich dann aber Professor Wiedmann, meinem Doktorvater, zu verdanken. Bei der Suche nach einem Dissertationsthema kritzelte er in seiner unvergleichlichen Art wilde Ursache-Wirkungs-Beziehungen auf eines unser vielen Schmierzettel. Er sagte mir: „Neuronale Netze sind doch vernetzt – solche Ursachen-Netzwerke müsste man mit denen doch modellieren können!“ Ich wusste zwar, dass das nicht so geht, aber ich nahm die Frage als Herausforderung mit nach Hause. Der Stein zur Lösung war gelegt.

Warum ging es nicht? Künstliche neuronale Netze[3] (zumindest die gerichteten) werden heute als nichts anderes als universelle, multivariate Regressionsverfahren verstanden. Sie ermitteln eine mathematische Formel (die aus den Neuronen besteht), welche aus den Inputvariablen bestmöglich die Werte der Outputvariable schätzt. Das einzige und für die Betriebswirtschaft gravierende Problem neuronaler Netze war das sogenannte Black-Box-Problem. Die mathematische Formel war zu komplex, um sie verstehen zu können. Ein Kausalmodell, welches perfekt prognostiziert, jedoch bei dem keiner sagen kann, welche Variable auf welche wie wirkt, ist in vielen Fällen einfach unbrauchbar. Daran musste ich arbeiten.

Das Ergebnis der weiteren zweijährigen Forschung war NEUSREL. Das Prinzip der Analysemethode ist in der folgenden Abbildung dargestellt. Grundsätzlich gibt es in NEUSREL drei Analysestufen.

In Stufe 1 (das Messmodell) werden die reflexiven oder formativen latenten Variablen berechnet. Dabei werden sogenannte manifeste Variablen (MV) – also die Werte, die im Datensatz vorhanden sind – zu einer latenten Variable (LV) verdichten. Gibt es nur eine MV, so ist diese gleichzeitig die LV. Methodisch finden hier u. a. Hauptkomponentenanalyseverfahren (HKA) Anwendung – wahlweise auch nichtlineare HKA, die durch neuronale Netze realisiert werden.

In Stufe 2 (das Strukturmodell) werden nun die Ursache-Wirkungs-Beziehungen modelliert. Für jede beeinflusste LV wird ein separates neuronales Netz angelernt. Diese neuronalen Netze produzieren wiederum eigene Schätzwerte für die LV, womit dann wieder das Messmodell optimiert werden kann. Iterativ werden Stufe 1 und Stufe 2 mehrfach wiederholt, wobei in der Wiederholung für Stufe 1 andere Methoden angewendet werden.[4]

In Stufe 3 findet die Nachanalyse statt. Denn das neuronale Modell ist Formel-Kauderwelsch. Dies muss erst in verständliche Informationshappen übersetzt werden. So wird etwa mit dem von Plate (1998) geliehenen Algorithmus der unabhängige Einfluss einer Variablen auf eine Andere separiert und graphisch dargestellt. Das Gleiche passiert mit dem Einfluss von zwei interagierenden Variablen auf eine beeinflusste Variable durch Erzeugen einer dreidimensionalen Landschaft. Darüber hinaus wird eine Vielzahl von Kennzahlen berechnet, die genau die Eigenschaften der Zusammenhänge beschreiben. Wahlweise wird der Causal Direction Discovery-Algorithmus[5] in dieser Phase eingesetzt. Er stellt fest, ob bidirektional spezifizierte Pfade in Wahrheit eine ganz bestimmte Kausalrichtung aufweisen.

Lassen Sie uns prüfen, ob NEUSREL die oben aufgestellten Anforderungen erfüllt:

multivariate Methoden: Ja, künstliche neuronale Netze (KNN) sind multivariate Analysemethoden.

  1. Entdeckend vorgehen können:
    Ja, das Markenzeichen von KNN ist es, prinzipiell jeden möglichen Zusammenhang ohne seine Eigenschaften vorher zu kennen, modellieren zu können. Zusätzlich überprüft der Causal Direction Discovery-Algorithmus die Kausalrichtung.
  2. Komplexität entdecken können:
    1. Nichtlinearitäten
      Ja, das impliziert Punkt 1 bereits. Und hier ist der Unterschied zu manchen herkömmlichen Methoden, die auch Nichtlinearitäten modellieren. Bei KNN Modellen muss man nicht vorher wissen, wo welche Art der Nichtlinearität vorliegt. Die spezielle Nachanalyse von NEUSREL ermöglicht das Auflösen der Black-Box neuronaler Netze.
    2. Interaktionen
      Ja, und hier trifft wieder das Gleiche zu wie bei a.
    3. Mit kleinen Stichproben effizient umgehen können
      1. Modellkomplexität mit Anpassung an Daten abwägen:
        Ja, NEUSREL wendet eine Implementierung der Bayes’schen Statistik auf neuronale Netze, die durch MacKay entwickelt wurde, an. Meine Tests zeigen hervorragende Ergebnisse auch im Vergleich zu anderen neuen Methoden wie Support Vektor Machines und Gaussche Prozesse.
      2. Ermöglichen auf allen Ebenen Vorwissen einzubringen:
        Ja, NEUSREL ermöglicht Fallgewichtungen. Es ermöglicht Pfade a priori auszuschließen oder diese unter- oder überzugewichten. Zusammenhänge können darauf beschränkt werden, nur positiv zu sein (Constraints). Messmodell und Strukturmodell können auf Linearität begrenzt werden. Die Stichprobe kann so umgewichtet werden, dass eine Quasi-Gleichverteilung entsteht. Dem Lernverfahren kann auferlegt werden, Modelle mit besonders wenigen Freiheitsgraden zu bilden.
      3. Hierarchical Bayes umgesetzt haben:
        Ja, diese Methode ist in der Nachanalyse integriert.
      4. Bilden von latenten Variablen unterstützen:
        Ja, dies sind die Messmodelle.

In diesem Kapitel ging es um Ursachen-Mining für Manager. Ich habe Anforderungen hergeleitet, die an Methoden zu stellen sind, wenn man nützliche Ergebnisse für die Praxis produzieren möchte. Ich habe dargelegt, dass mit dem Universal Structure Modeling Ansatz und der NEUSREL Software erstmals eine Methode verfügbar ist, die den Anforderungen gerecht wird. Methodische Details können Sie in der Zusatzliteratur[6] vertiefen.

 

Mögliche Grenzen

 

Alles hat Grenzen. Die eierlegende Wollmilchsau gibt es nicht. Wir setzen uns aber oft auch mentale Grenzen selbst, die unter Umständen in dem Ausmaß nicht existieren, wie wir sie befürchten. Daher lassen Sie uns typische berechtigte Fragen näher betrachten.

Kann ich der vorgestellten Analysemethode wirklich vertrauen?

Die vorgestellte Methode zur Ursachenanalyse ist Hightech und hochkomplex. Dem Manager kann nicht zugemutet werden, im Detail zu verstehen, wie und warum die Methode wirklich funktioniert. Doch soll er Methoden anwenden lassen, die er nicht versteht? Soll er strategische Entscheidungen mit immensen Konsequenzen in Millionenhöhe auf ihm unbekannten und unverständlichen Methoden fundieren?

Um darauf eine ausgewogene Antwort zu finden, sollten wir uns als erstes die Alternativen des Managers bewusst machen. Das Anwenden verständlicher Methoden ist der Status-Quo – verständlich sind deskriptive Analysen. Und ich habe hoffentlich deutlich zeigen können, dass die heutigen Entscheidungen auf Basis dieser Analysen zu regelmäßigen Fehlentscheidungen führen. Was können wir also verlieren? Schlechter können Entscheidungen durch innovative Methoden nicht werden – nur anders!

Als zweites schauen wir einmal, wie wir mit anderen komplexen Systemen umgehen, die wir nicht verstehen. Versteht ein Manager wie sein PC funktioniert? Versteht ein Manager einer Fluggesellschaft, wie genau ein Flugzeug funktioniert? Versteht ein Manager der Pharmaindustrie wirklich die bio-genetischen Forschungsprojekte und die Wirkung der resultierenden Medikamente? Vertrauen in komplexe Systeme entsteht entweder durch wiederkehrend gute Erfahrungen oder durch Vertrauen in Experten, denen man aufgrund anderer Indizien und Erfahrungen vertraut.

Die vorgestellte Methode kann auf einen großen Fundus erfolgreicher Anwendungsprojekte zurückgreifen. Sie wurde zudem im wissenschaftlich führenden referierten Journal veröffentlicht und von führenden Experten geprüft. Vorsichtige Unternehmen starten erst einmal mit Pilotprojekten, um selbst Erfahrungen zu sammeln und Zug um Zug in die Anwendung einzusteigen.

Zu viele mögliche Erfolgsursachen

Manche Problemstellungen scheinen sehr komplex zu sein. Was beeinflusst beispielsweise den Erfolg einer Werbekampagne eines Automobilherstellers. Es fängt schon bei der richtigen Wahl der Kundensegmente und der Markenpositionierung darin an. Weiter geht es mit der Verteilung des Werbebudgets. Dann geht es in die Intramediaplanung. Hier gibt es dutzende von Fernsehsendern und Zeitschriften, die zeitlich verschiedentlich gesteuert und abgestimmt werden können. Dann kommt es darauf an, wie die Werbemittel (z.  B. die TV-Spots) gemacht sind. Ist der kreative Ansatz wirkungsvoll? Wenn all das gut gemacht ist, dann … ja dann wird immer noch kein Auto gekauft. Dann muss das Ganze im Vertriebskanal richtig umgesetzt werden und es müssen sogenannte Touch-Points zum Kunden aufgebaut werden. Sie sehen schon, in diesem Beispiel gibt es vermutlich hunderte oder gar tausende von möglichen Hebeln, bis es zum erfolgreichen Absatz kommt. Das ist in dieser Form bei endlichen Datensätzen eventuell eine unlösbare Aufgabe.

Wäre es nicht ungemein nützlich, wenn wir die Aufgabenstellung so strukturieren, dass die Anzahl der Erfolgsursachen handhabbar wird? Und genau das muss das Ziel sein.

Getreu dem Motto „Divide et impera“ (Latein für „Teile und herrsche“) ist es eine erprobte Methode der Komplexitätsreduktion, ein Problem in Teilprobleme zu zerlegen und jedes nacheinander sequentiell zu lösen. So kann man im Beispiel oben zuerst die Kundensegmentierung und Brandpositionierung definieren, welche dann den inhaltlichen Rahmen für den Kreativansatz vorgibt. Dieser ist grundsätzlich unabhängig von der Budgetverteilung auf Mediengattungen. Werbeformate wie Plakate oder TV-Spots können isoliert getestet und optimiert werden. Die Intramediaplanung ist wiederum ein nachgelagertes Problem. Auch die Themen Vertrieb, Vertriebsunterstützungsmaßnahmen etc. sind weitere separierbare Optimierungsfelder. Jedes dieser Teilbereiche hat handhabbar viele mögliche Erfolgsfaktoren.

Ja, im Einzelfall können es zu viele Erfolgsfaktoren werden. Bevor wir aber nicht die diversen Regeln der Kunst[7] angewendet haben, sollten wir nicht voreilig urteilen.

Zu große Wirkzeit

Die Zeit zwischen dem Umsetzen einer ursächlichen Maßnahme und dem Auftreten der Folgen nenne ich Wirkzeit. Wirkzeiten können im Management sehr lang sein. Insbesondere wenn es um strategische Prozesse geht. Dann nämlich durchlaufen die Wirkprozesse viele Teilprozesse, die in der Summe lange dauern. Wenn wir das Automobilbeispiel aufgreifen, kann man ebenfalls große Wirkzeiten feststellen. Eine Imagekampagne wirkt über die Zeit sukzessive positiv auf das Markenimage. Doch werden dann gleich mehr Autos verkauft? Nein, zuerst muss ein Kunde ein neues Auto benötigen. Kunden kaufen aber nur im Schnitt alle 6 Jahre ein Auto. Damit baut sich beim einzelnen Kunden eine Marke im Schnitt über 3 Jahre auf, bis diese Einfluss auf den Kaufakt haben kann. Hat man Wirkzeiten über mehrere Jahre, wird es sehr schwer die Wirkung der Maßnahmen empirisch nachzuweisen. Denn man muss erst mehrere Jahre warten bis die ersten Erfahrungen eintrudeln. Und weiterhin muss man weitere Jahre warten, um genügend Erfahrungswerte zu sammeln. Ist man dann bereit zur Auswertung, haben sich ggf. bereits alle Rahmenbedingungen, unter denen die Ableitungen anwendbar sind, geändert.

Aus diesem Grund muss es in vielen Fällen das Ziel sein, die Aufgabenstellung so zu strukturieren, dass sich die Wirkzeit der Erfolgsursachen verringert. Im Beispiel oben handhaben wir dies, indem wir Zwischen-Erfolgsgrößen definieren und messen. Die ersten Ziele von Werbung sind Bekanntheit, Sympathie und Markenimage und nicht Abverkauf. Dann analysieren wir in einem separaten Modell, wie diese und andere Zwischengrößen das Endziel des Abverkaufs beeinflussen.

Ich muss also genau analysieren und verstehen, WARUM die Wirkzeit so lang ist, wie sie ist. Daraufhin kann ich den Wirkprozess zerlegen und verkürzen. Divide et impera! Gelingt dies nicht, stößt man an Grenzen der Wissensgewinnung.

 

Hoher Aufwand der Datensammlung

Daten sammeln ist immer mit Aufwand verbunden. Insbesondere wenn der Nutzen noch unklar ist, wird die Budgetbegründung schwierig. Aufgrund von sprungfixen Kosten kann der Datengewinnungsaufwand insbesondere für kleinere Unternehmen prohibitiv teuer werden. In großen Unternehmen ist nach meiner Beobachtung der Aufwand der Datensammlung für wichtige Forschungsfelder fast immer lohnend und kosteneffizient. Was können Sie tun, um die Kosten so gering zu halten, dass sich der Aufwand lohnt? Hier einige Ansätze:

  • Datensammlung als Nebenprodukt eines Selbstmanagement- oder Controlling-Prozesses: Wenn Sie beispielsweise die Wirkung Ihrer Vertriebsunterstützungsaktivitäten analysieren möchten, müssen Sie tracken, wie viel Besuche Ihre Vetriebsmannschaft macht, wie viel Produktproben, Flyer oder Einladungen zum Abendessen diese verteilen. Das kann aufwendig sein. Strukturieren Sie diese Aufschreibungen nicht als administrativen Prozess, sondern als Selbstmanagementprozess. Wenn ein Vertriebler eine Excelliste führt, um nicht zu vergessen, diese oder jene Produktprobe mitzunehmen oder diesen oder jenen Besuch durchzuführen, so ist zeitgleich die Aktion automatisch festgehalten und kann später analysiert werden. Viele Daten werden oft zu Controlling-Zwecken doppelt und dreifach erfasst. Schauen Sie genau hin und nutzen Sie stattdessen die administrative Arbeit doppelt und dreifach und nicht umgekehrt.
  • Anschluss an Benchmark-Monitoren: Wenn Sie eine Marktforschung machen wollen, fragen Sie sich, ob Ihre Mitbewerber oder andere Unternehmen der gleichen Branche diese nicht auch gebrauchen könnten. Dann ist es wahrscheinlich, dass Sie sich in einer gemeinsamen Studie zusammenschließen können. So können Sie sich die Kosten teilen. Dies ist bereits in vielen Bereichen üblich. Die besonders intelligente Analyse mit den richtigen, oben beschriebenen Methoden können Sie sich für sich selbst vorbehalten.
  • Monetarisierung des zu erwartenden Nutzens der Erkenntnisse: Machen Sie sich klar, was Sie durch besseres Wissen gewinnen. Stellen Sie sich vor, sie könnten von den 50 % verschwendetem Werbebudget nur ein Zehntel retten. Bei einem Budget von 10 Mio. Euro pro Jahr ergibt das immerhin 500.000 Euro Einsparungen pro Jahr. Behalten Sie das Budget gleich, haben Sie mehr Effekte. Bei einem Verhältnis von 1 Werbeeuro zu 5 Euro Mehrgewinn-Effekt, haben Sie bei konstantem Budget so 2,5 Mio. Euro Mehrgewinn in jedem Jahr. Dafür lohnt es sich schon, Daten zu sammeln und auszuwerten.

Analyseaufwand und -kosten

Nach einem Vortrag fragte mich kürzlich ein Zuhörer: „Muss ich jetzt ein paar Mathematiker einstellen?“ Dies ist ein Beispiel der Befürchtung vieler Manager, dass neue Kompetenzen neue Leute erfordern und dies neue, zusätzliche Overhead-Kosten aufgebaut. Ziel muss es aber sein, ohne zusätzliche Gemeinkosten und ohne die Bildung eines neuen Silos wie eine Analyseabteilung auszukommen.

Und in der Tat ist dies weder nötig noch üblich. Gerade in der Anfangszeit ist in jedem Fall Outsourcing an Experten zu empfehlen. So wie es für unzählige andere Spezialthemen auch bereits heute schon umgesetzt wird. Werbeagenturen, Mediaplanungsagenturen, SAP-Berater Personalrecruiter, Rechts- und Steuerberater sind die verbreitetsten Beispiele, die fast jedes Unternehmen nutzt. Warum also keine Ursachenanalysenagentur?

Bleibt noch das Thema Analysekosten. Es muss sich schließlich lohnen. Und auch dieses Thema löst sich schnell auf. Denn Analysekosten sind oft geringer als die Datensammlungskosten selbst. Zudem gibt Ihnen das Outsourcing an Experten die Möglichkeit, sich vorab im Projektangebot sowohl Kosten als auch den zu erwartenden Nutzen deutlich vorrechnen zu lassen. Erst dann müssen Sie entscheiden.

 

Kommunizieren an Dritte

Zentrale Bedeutung in großen Unternehmen besitzt das Kommunizieren von Ergebnissen an diverse interne Interessengruppen. So muss die Marktforschungsabteilung die Ergebnisse von Studie und Analysen so aufbereiten, dass die entsprechende Abteilung die richtigen Schlüsse ziehen kann. Diese Abteilung kann das Marketing sein – es kann aber auch die Technik sein, die gewisse Leistungs- und Produkteigenschaften daraufhin verändern muss. Je komplexer die Analyseergebnisse sind, desto schwieriger sind diese zu kommunizieren. Darin steckt eine wichtige Herausforderung. Hier könnte auch eine wichtige Ursache dafür begründet liegen, warum noch heute fast ausschließlich mit deskriptiven Analysen gearbeitet wird.

Ziel muss es jedoch sein, brauchbare Analysemethoden anzuwenden, um eben auch richtige Entscheidungen treffen zu können. Die Darstellung und Kommunikation muss angepasst und die Ergebnisse müssen adressatenbezogen vereinfacht werden. In wichtigen Fällen arbeite ich mit erprobten Wahrnehmungspsychologen zusammen, die helfen, die Erkenntnisse auf des Pudels Kern hin zu abstrahieren und noch verständlicher darzustellen.

Fragen Sie sich bei der Darstellung, welche Detailinformation entscheidungsrelevant ist. Alles, was es nicht ist, kann weggelassen werden. Fachabteilungen müssen auch nicht zwingend die Methode verstehen – genauso wenig wie Manager die Methode verstehen müssen. Das Verstehen kann outgesourced werden an Akteure, denen man vertraut.

Ein Beispiel aus dem Mobilfunk: Hier haben wir diverse Tiefenanalysen der Loyalitätsbefragungswellen durchgeführt. Als Ergebnis wurde genau eine Powerpoint-Ergebnisfolie je Fachbereich erstellt. Dies war u. a. durch eine neu eingeführte Kennzahl, den ASE (Average Simulated Effect), möglich. Aufgrund von Nichtlinearitäten und Interaktionen ist es in komplexen Modellen nicht so einfach, die Bedeutung eines Treibers anzugeben, denn die Bedeutung hängt davon ab, wie der Treiber heute ausgeprägt ist. Der ASE wird durch eine einfache Simulation berechnet und beantwortet die wichtigste Frage eines Managers: „Wie steigert sich die Kundenbindung, wenn jeder der Befragten einen bestimmten Treiber etwas besser einschätzen würde?“ Die Kennzahl vereinfacht ein komplexes Modell auf die Beantwortung dieser entscheidungsrelevanten Frage.

Einstein hätte es so formuliert: „Man sollte alles so einfach wie möglich machen. Aber nicht einfacher!“


 


[1] Dies sind u. a. ökonometrische Modelle, es sind nicht die herkömmliche Regressionsanalyse, Logistische Regression, Logit-Analyse, herkömmliche Strukturgleichungsmodelle (LSIREL, AMOS, PLS, EQS, Mplus, etc.) oder Varianzanalysen

[2] Dies sind u. a. sogenannte nicht- und semiparametrische Methoden, wie K-Nächste Nachbarn, Entscheidungsbäume, Künstliche Neuronale Netze (genauer Multi-Layer Perceptron) oder Support-Vektor-Maschinen, um die wichtigsten zu nennen.

[3] Mehr zu neuronalen Netzen finden Sie u. a. in meiner Dissertation „NEUSREL“ (Buckler, 2001)

[4] Die Methode ist detaillierter im MJRM Artikel dargestellt (Buckler/Hennig-Thurau 2008)

[5] Ein Whitepaper zum Causal Direction Discovery-Algorithmus kann beim Autor angefordert werden.

[6]

  • Buckler, F. (2001): NEUSREL: Neuer Kausalanalyseansatz auf Basis Neuronaler Netze als Instrument der Marketingforschung, Göttingen.
  • Buckler, F./Hennig-Thurau, T. (2008): Identifying Hidden Structures in Marketing’s Structural Models Through Universal Structure Modeling: An Explorative Neural Network Complement to LISREL and PLS, in: Marketing Journal of Research and Management, Vol. 2
  • Buckler, F. (2011): New NEUSREL feature Causal Direction Discovery, Whitepaper

[7] Auch können Variablen ggf. durch formative Konstrukte zu latenten Variablen verdichtet werden.

Veröffentlicht unter Kapitel 5 | Kommentare deaktiviert für 5. Was macht einen guten digitalen Spürhund aus: Die Wahl der richtigen Methode

6. Umsetzen: Die Befreiung aus einer Management-Illusion

Wir haben Alltagsmythen kennengelernt und gesehen, dass die vermeintlich einfachsten Weisheiten oft falsche Mythen sind. Wir haben gesehen, dass die Ursache dahinter unsere Art und Weise, wie wir lernen, ist. Denn auf die meisten Dinge wirken mehrere Ursachen gleichzeitig. Man muss immer alle Ursachen gleichzeitig betrachten, um wirklich erlernen zu können, welche Ursache welchen Einfluss hat. Entweder wir führen kontrollierte Experimente durch oder wir wenden gleich multivariate Ursachenanalysen an, die aus Datensätzen die gesuchten Erkenntnisse gewinnen können. Wir haben gesehen, wie diese Methoden in vielen Bereichen des Managements großen Nutzen stiften können. Darüber hinaus habe ich Ihnen die neue Methode NEUSREL vorgestellt, die bestens geeignet ist, die hohen Anforderungen der Praxis zu erfüllen.

Was nun? Kann ich daraus noch mehr lernen? Was nehme ich ganz konkret mit für die Umsetzung?

Aus der Sicht eines Angestellten

Als Angestellter sehe ich die Dinge etwas anders. Stark vereinfacht ist mein Bestreben, mein Einkommen zu maximieren und Status zu gewinnen (d. h. Karriere zu machen). Das kann ich, wenn ich Erfolge vorweisen kann. Daraus ergeben sich eine gute Reputation und Beförderungen.

Doch was sind Erfolge? Sind das nicht die kausalen Folgen der Handlungen des Angestellten? Wie kann ich Erfolge als solche identifizieren? Genau. In den meisten Fällen geht es nicht, denn es laufen zu viele Maßnahmen und damit mögliche Ursachen parallel. Niemand wird meine Erfolge wirklich erkennen können.

Drei Jahre, nachdem ich eine neue Position übernahm, hatte sich der Gewinn unseres Vertriebsgebiets vervierfacht. Dumm, wie ich manchmal bin, gab ich meine Vermutung preis, dass ein Großteil auf externe Marktentwicklungen zurückzuführen ist. Ein politisch geschickter Angestellter beherrscht die Kunst des „Storyteller im Nachhinein“. Erfolge führt der Storyteller auf gleich- oder vorlaufende eigene Maßnahmen, die er initiiert hat, öffentlich zurück. Dazu muss er auch immer und laufend öffentlich Aktionen initiieren, um dann im Glücksfall die Zuordnung machen zu können. Dabei kommt es nicht darauf an, dass in den Aktionen tatsächlich etwas umgesetzt wird. Die Kunst besteht darin, im Vorhinein sich immer alle Türen offen zu lassen. Dafür sollte man Risiken öffentlich dokumentieren, auf die man sich im Misserfolgsfall beziehen kann. „Ich hab immer gesagt, dass dies schwierig wird.“ Idealerweise nennt man dabei externe Faktoren, die dazwischen kommen können. „Wir werden unseren Gewinn durch Preissteigerungen verdreifachen. Es besteht jedoch das Risiko dass der Wettbewerber querschießt.“

Weiterhin macht es karrieretechnisch Sinn, in einen Job einzusteigen und die ersten positiven Ergebnisse angemessen zu feiern und gleichzeitig als Sprungbrett für einen internen oder externen Wechsel zu verwenden. Bewerbungsverfahren sind oberflächlich und kleine Lügen bzw. Übertreibungen fallen zu 99 % nicht auf. Und es macht einfach Sinn, sich aus dem Staub zu machen, bevor die Hütte zusammenfällt. Schauen Sie sich einmal die typische Verweilzeit in einem Job eines Managers in jungen Jahren in einem Konzern an. Das sind 2 bis maximal 4 Jahre. Erfahrene Manager werden mir beipflichten. Es dauert mindestens 1-2 Jahre um sich in eine neue Stelle einzufinden, aber dann 3-5 Jahre bis gute Maßnahmen wirklich greifen und Wirkung zeigen. Schlaue Karrieristen nutzen die Blindheit des Arbeitgebers und bewerben sich nach oben weiter.

Sie finden das unmoralisch? Ich auch. Doch ich glaube, sehr viele handeln genau auf diese Weise.

Genau das ist nun mal die Folge, wenn die Führung nicht angemessen die Multikausalität berücksichtigt – wenn es keine Sensibilität dafür gibt, dass der Erfolg viele Väter hat.

 

Aus der Sicht eines Unternehmers

Hier ist das nächste Problem: In großen Konzernen und vielen anderen Unternehmen gibt es keine Unternehmer mehr. Es gibt nur noch Angestellte. Und die sind entweder Idealisten (dann haben die Eigentümer Glück) oder Karrieristen – dann treibt das Schiff des Unternehmens mehr oder weniger führerlos. Zumindest ist der Kapitän nur daran interessiert, seine eigene Haut zu retten. Genau das ist ein Problem insbesondere bei börsennotierten Unternehmen. Da die Folgen von Maßnahmen mit bloßem Auge von außen nicht beurteilt werden können, stehen dem Scharlatan Tür und Tor offen. Wenn nicht von außen kontrolliert werden kann, ob Maßnahmen gut sind, dann kommt es eben nicht mehr darauf an, gute Entscheidungen zu treffen. Es kommt darauf an, a) schlechte Ergebnisse argumentativ vorzubereiten und abzusichern und b) auftretende Erfolge „richtig“ zu attribuieren und c) Misserfolge extern zu attribuieren.

Wenn die Angestellten also fehlgesteuert werden, wenn die Ursache-Wirkungs-Beziehungen nicht transparent sind, dann muss Transparenz her. Als Unternehmer sind Sie gut beraten, herauszufinden und zu überwachen, wo die zentralen Erfolgshebel in den Einzelbereichen liegen und ob die Manager diese auch aktiv managen.

Weiterhin ist es schlau, das Gehör zu schulen und Begründungsversuche kritisch zu hinterfragen. Wir Menschen haben immer eine Begründung parat. Wenn nicht, erfinden wir eine. Wissen Sie, warum Kriminalität in Stadteilen mit hohem Migrantenanteil meist höher ist? Sehen sie? Sie haben sofort eine Antwort parat oder? Es ist ein Automatismus, der sich im Gehirn abspielt. Das hat auch seinen Sinn. Nur wird uns oft nicht klar, auf wie wackeligen Beinen unsere Hypothesen stehen. Denn die Kriminalitätsrate kann auch durch den bei Migranten höheren Jugendanteil kommen. Oder es ist die Tatsache, dass Migranten in Deutschland oft aus dem Arbeiter- und Bauernmillieu kommen und so eher zur Straßenkriminalität neigen? Ich weiß es nicht – es ist nur ein anschauliches Beispiel, wie wir andauernd Hypothesen generieren und leider auch intuitiv ganz fest an deren Richtigkeit glauben.

Was wir brauchen ist eine Unternehmenskultur, die es zulässt, auch einmal keine fertige Meinung zu haben. Dazu trägt eine Weltsicht bei, die verstanden hat, dass die Dinge viele Ursachen haben und diese sich nicht durch ad hoc Hypothesen erschließen. Diese Weltsicht bildet sich nur schrittweise durch zielgerichtete Bildung, die der Unternehmensführer steuern kann.

Bildung: Jeder sollte dieses Buch lesen

Sicher, das Hörbuch würde sicher auch genügen 🙂 Ernsthaft. In irgendeiner Form ist es wichtig zu kommunizieren, in welcher Weise man in Zukunft managen will. Dies gelingt umso besser, je mehr die Mitarbeiter das Konzept und das Warum verstanden haben. In jedem Fall sollte ein Diskurs mit den zentralen Führungskräften, denen diese intellektuelle Leistung zugetraut werden kann, geführt werden.

Die Folge wird sofort sein, dass das Methodenverständnis im Unternehmen steigt. Dies sollte dann durch Aufbau von detailliertem Methoden-Know-how gebündelt an bestimmten Stellen ergänzt werden. Denn egal, ob man Analysen selbst anfertigt oder durch externe Experten durchführen lässt, sollte das Unternehmen den methodischen Hintergrund gut verstehen können.

Kultur: Umgang mit Wissen und Nichtwissen lernen

Heute genießen Experten große Anerkennung bei uns. Eine lange Erfahrung gilt als hohes Gut. Vor dem Hintergrund der Multikausalität sollten wir unsere Einschätzung bei den Experten in den Bereichen Management, Marketing und Vertrieb und Einkauf relativieren. Das bezieht Branchenexperten mit ein. In der Realität erwirbt ein Branchenexperte sein Wissen in den ersten maximal 5 Jahren und predigt die Erkenntnisse den Rest seines Lebens. Auch das weiß ich aus eigener Erfahrung, denn mir ging es nicht anders. In jedem Fall lernt man immer weniger dazu. Eine spätere Änderung der Anschauung ist nahezu ausgeschlossen.

Haben Sie sich mal gefragt, warum viele der größten Unternehmen der Welt wie Microsoft, Google oder Facebook von zwanzigjährigen „Milchgesichtern“ gegründet wurden? Wenn Expertenwissen so wichtig ist, warum entwickeln die Experten wie die angesehenen Professoren in Harvard oder INSEAD oder ihre hochrangigen Schüler nicht neue revolutionäre Geschäftsmodelle? Weil vorhandenes Wissen oft falsch, rein beschreibend oder nicht widerlegbar (also inhaltsleer) ist – auch und gerade in den „Eliteschulen“, in denen fragwürdige Managementlehren wie der Shareholder-Value-Ansatz entwickelt und propagiert wurden. Reputation ist alles. Vieles hier ist nur Schall und Rauch.

Wenn sie mit diesem Buch nun wissen, dass die Experten ihr Wissen meist „manuell“ ohne zusätzliche Methoden erworben haben, sollten sie gegenüber Experten eine gesunde Skepsis entwickeln. Vielleicht haben die Experten ja zufällige Kovariationen der Vergangenheit fehlinterpretiert, die sich jetzt als Wissen im Kopf festgesetzt haben. Leider fliegt falsches Wissen keineswegs auf. Denn die Dinge haben ja viele Ursachen und so kann jeder seine eigene Interpretation der Fakten stricken, wenn die Wahrheit nicht transparent ist.

Natürlich ist der Umkehrschluss nicht erlaubt. Experten sind im Zweifel, die besten Quellen, die wir haben. Wenn Ihnen jedoch etwas an der Expertenmeinung unschlüssig vorkommt, sollten Sie vor dem Hintergrund der neuen Erkenntnisse den Experten herausfordern oder eine eigene Analyse angehen.

Bestehendes Management-, Markt-, Branchen-, Marketing- und Vertriebs-Know-how ist immer mit großer Vorsicht zu genießen. Sie wissen nie, wie es gewonnen wurde. Mit hoher Wahrscheinlichkeit kommen viele Weisheiten aus dem Land der Mythen. Als ich einen Job als Marketing-Manager aufnahm, stieß ich immer wieder auf diese Glaubenssätze. Kurze Auftragsdellen wurden grundsätzliche mit Saisoneffekten begründet. Ich konnte quantitativ nachweisen, dass es diese einfach nicht gibt und Schwankungen nur auf die Anzahl der Arbeitstage im Monat zurückzuführen waren. Ein anderer Glaubenssatz war es, dass alle Kunden nur auf den Preis schauen. Es stellte sich heraus, dass es diese Verallgemeinerung nicht gibt, sondern typische und natürliche Kundensegmente existieren.

Wichtiger, als vermeintliches Wissen zu horten, ist es, eine Bestandsaufnahme darüber zu machen, was man NICHT weiß. Denn so wird deutlich, was vom Wissen noch übrig bleibt. Wenn ich weiß, welches Wissen fraglich ist, dann bin ich bei seiner Anwendung vorsichtiger. Und ich bin vorsichtiger, mögliche Erfolge diesen Maßnahmen zuzuschreiben. Eine Unternehmenskultur, die es ermöglicht, zu sagen „Ich weiß es nicht“, eine Kultur, die ein Bewusstsein darüber hat, was wir alles nicht wissen, eine solche Unternehmenskultur produziert verantwortliche und ausgewogene Entscheidungen.

Eine Unternehmenskultur, die Nichtwissen toleriert und aushält, ist aus einem weiteren Grund notwendig. Vielleicht erinnern Sie sich noch an diese Matrix:

Sie zeigt den Blind-Spot der möglichen Erkenntnis. Hochkomplexe Systeme entziehen sich unserer Erkenntnis. Zumindest so lange, wie wir ihre Komplexität nicht (durch kreative Lösungen) sinnvoll verringern können. Das ist so wie mit den Wetterprognosen. Das globale Klima ist unendlich komplex. Jedoch ist es möglich, mit gutem Erfolg das morgige lokale Wetter vorherzusagen. Genauso gibt es Felder im Management, die bislang zu komplex sind, um empirisches Wissen ableiten zu können. Hier bleibt nur vorsichtiges Trail & Error.

In seinem Buch „Black Swan“ beschreibt Nassin Taleb sehr anschaulich, warum das aktive Management von Nichtwissen (d. h. des Blind-Spots) eine überlebenswichtige Rolle für Unternehmen spielt. Stellen Sie sich vor, Sie sind ein Truthahn und jeden Morgen gibt es Sonne satt und tolles Kraftfutter. Nach 1000 Tagen ihres Lebens gelten Sie als Experte und halten Vorlesungen vor den jüngeren Truthähnen und berichten von Ihrer Theorie der Unendlichkeit der Welt. Denn das entspricht Ihren Erfahrungen. Am nächsten Tag ist Thanksgiving …

Je seltener ein Ereignis in der Vergangenheit vorkam, desto gravierender sind mögliche Konsequenzen. Dieses Ereignis nennt Taleb „Black Swan“. 50 % aller Veränderungen im S&P500 der letzten 50 Jahre sind in sage und schreibe 10 Tagen passiert. Soziale Systeme sind quasi sich selbst organisierende Einheiten und es ist nachweislich ein Grundgesetz, dass sie sich auf diese Weise verhalten. Was hat das mit Nichtwissen zu tun? Die wichtigsten zukünftigen Ereignisse werden wir nicht vorhersehen können. Warum ist das so? Weil die Ereignisse deswegen so große Effekte entfalten, weil sie keiner vorhersieht und sich keiner darauf einstellen kann. Irgendwann erwischt uns das System auf dem falschen Fuß.

Für die negativen Black Swans sollten wir uns ausreichend schützen. Und das geht eben gerade nicht mit Risk Management Systemen, die versuchen das Risiko aus empirischen Daten zu lesen. Wahres Risiko lässt sich eben gerade nicht aus der Empirie belegen. Man sollte einfach gewappnet sein. Expect the Unexpected. Ein Unternehmen, das mit geringer Eigenkapitalquote operiert, ist zwar sehr erfolgreich, aber bei einer Windböe schnell weg vom Fenster. Genauso wie es Porsche in 2008 passiert ist.

Wer positive Black Swans erwischen will, muss spielen und wetten. Ein Investment in das junge Startup Google 1998 war genau eine solche Wette. Man konnte es vorher nicht wissen. Daher gilt, je mehr verschiedene Wetten man abschließt, desto besser. Lieber sollten die Geldbeträge klein sein. Auch gilt, dass je verrückter die Wette, desto größer ist der absolute Gewinn. Ganz einfach, weil andere ja auch wetten. Und auf verrückte Wetten wettet halt keiner, weil es unwahrscheinlich klingt. Daher sind diese Wetten, wie man im Börsenjargon sagt, unterbewertet. Was hat das mit Management zu tun? Denken Sie mal an Produktinnovationen. In vielen Unternehmen werden verrückte Ideen abgewürgt. Hat es mal eine in den Startup-Status geschafft, so wird nach kurzer Zeit der Geldhahn zugedreht, wenn nicht in den Anfangsjahren die Gewinne sprudeln. „Ich habs ja schon immer gewusst“, heißt es dann von überall. Das Beispiel von Nespresso ist dabei sehr anschaulich. Über zehn Jahre fristete das Projekt Nespresso im Nestle-Konzern ein verlustbringendes Schattendasein. Wussten Sie das? Kaum ein anderes Unternehmen hätte das so lange geduldet. Jetzt im Nachhinein, wo das Konzept fliegt, ist Nespresso ein gern genanntes Beispiel für die Eröffnung neuer Geschäftsfelder. Schnell wird es als „Blue Ocean“-Idee ausgerufen. Nein, nicht das retrograde Rekonstruieren von Erfolgsformeln für Innovationsmanagement ist zielführend, sondern das gesteuerte Wetten auf ungewöhnliche Projekte. Da diese Projekte unterbewertet sind, ist im Gesamtergebnis das Investment sehr lohnenswert.

Führt man die Maßnahmen zum Überstehen von negativen Black Swans und zum Nutzen von positiven zusammen, kommt man zu einer Gesamtstrategie: Das Fundament der Unternehmenstätigkeit sollte grundsolide, sehr sicher und mit doppeltem Boden ausgestattet sein. Nur verfügbares Spielgeld wird dann möglichst breit gestreut in möglichst verrückte Projekte gesteckt, von denen eines Tages eines „explodieren“ und die Zukunft der Firma definieren wird. So wie der Stiefelfabrikant Nokia zum Handyhersteller und Bill Gates zum reichsten Mann der Welt wurde. Das ist gemanagter Zufall.

 

„Hase und Igel“ 2.0: Performance Management umgestalten

In der Geschichte vom Hasen und dem Igel, gewinnt der Igel das Rennen mit einem Trick. Er nutzt die Tatsache, dass das Rennen nur durch eine Ergebnisgröße gesteuert wird: „Wer zuerst da ist, hat gewonnen.“

Die Zielgrößen im Management haben viele Ursachen. Und wie diese wirken, können wir durch KPIs, schicke Reportings oder elaborierte Excel-Listen nicht herausfinden.

Doch wie findet Kontrolle und Performance Management heute statt? Man schaut sich einfach an, ob die KPIs im Soll liegen. Wenn nicht, wird beim Verantwortlichen nachgefragt in der Hoffnung, er kennt den Grund für die Abweichung. Aber woher soll er es denn wissen? Wenn die Dinge viele Ursachen haben und deren Wirkung eben nicht durch einfaches Beobachten erlebt werden kann, dann weiß er es im Zweifel auch nicht. Wir merken davon nichts, weil die Verantwortlichen meist plausible Geschichten parat haben. Und sie lügen nicht wirklich, denn Sie glauben selbst daran, da das Bewusstsein für die Komplexität unserer Welt fehlt.

Es kommt ja noch schlimmer. Nicht nur werden wir an den KPIs gemessen, sondern auch bezahlt. Bonussysteme orientieren sich meistens an Ergebniskennzahlen. Es soll belohnt werden, was geleistet wurde. Darunter versteht man, dass Erfolg belohnt werden soll.

Wenn aber die Kennzahl nur zum Teil vom Verantwortlichen beeinflusst werden kann und zudem dieser gar nicht präzise weiß, was die Haupterfolgstreiber sind, dann belohnt und bestraft man auf quasi zufälliger Basis. Eine Verstärkung von gutem und richtigem Verhalten kann so nicht funktionieren. Das Einzige, was man verstärkt, sind regelmäßige Maßnahmen zum Kennzahlen-Trimming. Der Igel fängt an zu tricksen. In schlechten Jahren werden Aufträge verschoben, damit es im nächsten Jahr Bonus regnet. Das Budget-Soll wird mit sagenumwobenen Stories niedriggehalten. Manager kennen diese Dinge nur zu gut.

Wie geht es besser? Im Grunde darf man nicht den Output, also die Ergebnisse, kontrollieren, sondern den Input. Das Steuern des Inputs macht natürlich nur Sinn, wenn man die richtigen Erfolgsgrößen steuert. In einem Geschäft, in dem Face-Time beim Kunden zentral ist, sollten Sie diese auch messen und z.  B. Mindestgrößen definieren. In einem Geschäft, in dem die Fähigkeit zählt, gute Beziehungen zu Kunden aufzubauen, sollten Sie genau diese Fähigkeit messen und fördern sowie deren Anwendung kontrollieren.

Kontrolle ist hier immer im positiven Sinn gemeint und hat nichts mit Misstrauenskultur zu tun. Ein Unternehmen ohne Kontrolle funktioniert in den seltensten Fällen ausreichend gut. Kontrolle ist hier im Sinne von Coaching und „Hilfe, um besser zu werden“ gemeint. Angemessene Kontrolle ist ein Beleg dafür, dass der Vorgesetzte sich für das interessiert, was der Angestellte tut. Es ist eine Art Anerkennung und Wertschätzung seiner Arbeit.

Ich war lange Zeit Befürworter der Output-Orientierung. Denn oft genug werden in Unternehmen belanglose Inputfaktoren kontrolliert. Das offensichtlichste Beispiel sind die Arbeitsstunden. Für Fabrikarbeiter sind diese natürlich ein zentraler Erfolgsfaktor. Bei Managern und vielen Büroangestellten sagt die Arbeitszeit fast nichts über die Leistung aus. Daher schien es mir richtig, auf Ergebnisse zu schauen. Tatsächlich aber ist die Inputorientierung der bessere Weg. Nur muss man die richtigen Inputfaktoren managen. Diese findet man nur durch multivariate Analysemethoden (insb. NEUSREL) und ggf. fundiert durch Experimente heraus.

Richtiges und gutes Performance Management bzw. Controlling setzt also an den zentralen Erfolgsfaktoren an. Wir brauchen keine Key Performance Indicators (KPIs), sondern Key Drivers Indicators (KDI). Dafür muss man im ersten Schritt erst einmal die wichtigsten Erfolgsfaktoren identifizieren.

Wenn Sie Ihr Performance Management und Controlling ernsthaft verbessern wollen, müssen Sie auch so viel wie möglich Reports, die Erfolgsgrößen zeigen, eliminieren. Heutige Controlling-Reports gehen aber über das Sinnvolle weit hinaus und bohren alles und jeden bis auf die Schraube auf – in der Illusion man könnte daraus Ursachen ableiten. Diese Reports verschlingen nicht nur wertvolle Ressourcen (beim Erstellen und beim Lesen), sie führen eben auch dazu, dass der Leser Fehlschlüsse daraus zieht. Daher ist das Vermeiden von dieser Art Informationsmüll wertstiftend für das Unternehmen.

Hennen statt Eier zählen: Ursachen-bezogene Aggregation von Transaktionsdaten

Natürlich sollte man wissen, wie es um die Profitabilität bestellt ist oder wie es um die Liquidität steht. Gewisse Regelschleifen sind unumgänglich und sinnvoll. Aber auch und gerade die Retrospektive ist hochinteressant: Warum ist denn der Gewinn eingebrochen? Interessanterweise bieten die heutigen KPI-basierten Systeme keine sinnvolle Antwort darauf.

Controller und Finanzmenschen sind Meister im Aufbereiten von Daten. Leider sind es immer nur Zahlen über Fakten, ohne Information darüber, wie sie zustande kommen. Der typische Controller genauso wie der typische Manager schwebt in einer Kontrollillusion. Objekt der Analyse sind meist Kennzahlen, die man in Bilanzen findet. Umsatz, Rohertrag, Deckungsbeitrag, Gewinn, aber auch Stückzahlen, Umsatz pro Stück (Durchschnittspreise) ggf. je Produktgruppe, Materialkosten, Produktionskosten, Transportkosten, Administrationskosten, etc. All diese Kennzahlen sind Aggregate einzelner Transaktionen. Sie summieren sowohl einzelne Verkäufe auf als auch die einzelnen Dinge, die man dafür anschaffen musste – vom Bleistift bis zum Lohnscheck. Ursachen sind immer nur Maßnahmen. Aggregationen sind immer Summen von Maßnahmen – also Summen von Ursachen. Summiert man die falschen Transaktionen zusammen, kann man aus den Aggregaten nicht mehr erkennen, welche Maßnahme zum Ergebnis geführt hat.

Nehmen wir den absoluten Gewinn einer Geschäftseinheit. Können Sie an der Veränderung des Durchschnittspreises, des Durchschnittsrohertrags, der Durchschnittskosten oder der Abverkaufsmengen erkennen, warum der Gewinn gestiegen oder gefallen ist? Die Antwort ist in meisten Fällen: Nein! In jedem Fall geben die Zahlen keine korrekten Hinweise über Ursachen. Denn z.  B. ein gestiegener Durchschnittpreis kann viele Gründe haben. Haben Kunden vermehrt teure Produkte gekauft? Ist ein Großkunde mit geringeren Preisen weggebrochen?

Wenn ich mit Controllern über diese Probleme rede, wird klar, dass den meisten das Problem bewusst ist. Doch die Lösung wird in einem lapidaren „da müssen wir das Business, also Marketing, Vertrieb oder Produktion fragen. Die kennen die Ursachen“ gesehen. Aus meiner Erfahrung kann ich jedoch sagen: In den meisten Fällen kennen diese die Ursachen auch nicht. Denn es sind zu viele Maßnahmen und Einflüsse, um sie einfach so im Blick zu haben. Nur, kaum jemandem ist dies bewusst, da man immer auf eine Frage eine scheinbar plausible Antwort erhält.

Ein gutes Reporting aggregiert die Transaktionsdaten so, dass die Kennzahlen in der Tendenz gute Hinweise über Ursachen geben. Diese Auswertungsmethode möchte ich im Folgenden mit CAT (Causation-lead Aggregation of Transaction data) bezeichnen. Ein solches Reporting kann für das produzierende Gewerbe zum Beispiel folgende Kennzahlen beinhalten:

  • Neue Artikel: Gewinnzuwachs durch im Vergleich zum Vergleichszeitraum von Kunden neu bestellte Artikel.
  • Verlorene Artikel: Gewinnverlust durch im Vergleich zum Vergleichszeitraum von Kunden nicht mehr bestellte Artikel (lost specs)
  • Höhere Preise: Gewinnzuwachs dadurch, dass im Vergleichszeitraum erneut bestellte Artikel zu einem höheren Preis verkauft wurden.
  • Niedrigere Preise: Gewinnverlust dadurch, dass im Vergleichszeitraum erneut bestellte Artikel zu einem niedrigeren Preis verkauft wurden.
  • Materialkosten: Gewinnänderung dadurch, dass im Vergleich zum Vergleichszeitraum die Rohmaterialien zu einem anderen Preis eingekauft wurden.
  • Absatz: Gewinnänderung dadurch, dass im Vergleich zum Vergleichszeitraum die gleichen Artikel in geänderten Mengen geordert wurden.
  • Produktmix: Gewinnänderung dadurch, dass im Vergleich zum Vergleichszeitraum mehr/weniger von margenstarken Artikeln geordert wurden.

Sicher muss man dies auf die Eigenarten des Geschäfts anpassen. Das Prinzip bleibt das gleiche. Das Aufbauen von Kennzahlen nach Maßgabe möglicher Ursachen bzw. durchgeführter Maßnahmen. Ursachen für Gewinnänderung sind in diesem Fall: Neue Artikel oder Kunden, verlorenen Artikel oder Kunden, Absatzänderung bei Bestandskunden, Einkaufskostenänderungen, Preisänderung und Produktmixänderung. Wenn Lohnkosten, Fixkosten, bestimmte Preiskomponenten oder die Größe des Materiallagerbestandes in Ihrem Geschäft eine große Rolle spielen, ist es sinnvoll dafür entsprechende Kennzahlen zu entwickeln.

Die meisten der oben skizzierten Kennzahlen können nun leider nicht mehr in einfachen Excel-Sheets ermittelt werden. Eine Software zur Verarbeitung der Transaktionsdaten wird dafür notwendig. Glücklicherweise gibt es dafür Dienstleister.

Weiterhin ist es notwendig, jede Kennzahl, die eine (deskriptive) Aggregation von Ursachen darstellt, durch Angabe bestimmter Einzelursachen zu ergänzen. Denn es kann sein, dass der Gewinneinbruch durch einen einzigen Artikel oder einen einzelnen Kunden verursacht wurde. Eine Kennzahl verallgemeinert jedoch immer. Wer offenen Auges durch die Unternehmensrealität geht, wird festgestellt haben, dass sich das Pareto-Prinzip als Grundmuster in allen (selbstorganisierenden) Systemen wiederfinden lässt. Albert-László Barabási beweist in seinen Büchern „Bursts“ und „Linked“ sehr anschaulich, warum das so ist. Das Pareto-Prinzip nennt man in der Managementsprache auch das „80-20-Prinzip“. Es besagt, dass 20 % der Ursachen 80 % der Effekte fabrizieren. Natürlich sind es niemals genau 20 oder 80. Aber es ist frappierend, wie wiederkehrend das Muster ist, wie wenige Kunden für den Hauptteil des Gewinns verantwortlich sind und wie der Hauptteil der Kosten durch wenige Artikel entsteht.

Weil das so ist, hat es sich bewährt, jede CAT-Kennzahl durch das Auflisten der Top 5 oder Top 10 Einzelposten zu ergänzen. Auch wenn sie durch die Kennzahl wissen, dass fasst der gesamte Gewinnverlust auf gesenkte Preise zurückzuführen ist, wird schnell die Frage gestellt werden: „Auf welche Kunden oder auf welche Produkte ist dies insbesondere zurückzuführen?“ Die Abbildung oben zeigt ein Beispiel dafür. Durch Anklicken des „Weniger Absatz“-Balkens werden die fünf Kunden aufgelistet, auf die der größte DB-Rückgang durch gesunkenen Absatz zurückzuführen ist. Man sieht sehr schnell, dass diese fünf bereits 50 % der gesamten Zahl erklären.

 

Work-out für Ihr Unternehmen: Strategien und Prozesse optimieren

Der zentrale Schritt für ein wirkungsvolles Management ist es, die Key Drivers, die für den Erfolg verantwortlich sind, zu identifizieren. Dies sollte man auf der Unternehmensebene genauso durchführen wie beispielsweise auf der Ebene der operativen Vertriebssteuerung.

Im Kapitel „Anwendungsfelder“ haben wir hier viele Beispiele kennengelernt. In welchem Bereich in Ihrem Unternehmen am meisten Optimierungspotenzial liegt, wird vom Einzelfall abhängen. In jedem Fall sollten Sie folgende Maßnahmen prüfen:

  • Prüfen Sie PIMS, um Ihr Geschäftsmodell und Ihre Ausrichtung zu evaluieren und ggf. zu korrigieren.
  • Identifizieren Sie kaufentscheidende Erfolgsfaktoren der Kunden, um daraufhin Ihre Positionierung am Markt auf den Prüfstand zu stellen.
  • Diese Analyse sollten sie auch dazu nutzen, um nach Kundensegmenten zu suchen oder ihre derzeitigen Segmente zu hinterfragen. Unterscheiden sich Ihre Segmente in den zentralen Erfolgstreibern wirklich signifikant? Ist ihr Kundenmanagement darauf abgestimmt?
  • Überprüfen Sie nicht nur die kaufentscheidenden, sondern auch die wiederkaufentscheidenden Faktoren sowie die Faktoren, die zu einer höheren Zahlungsbereitschaft führen. Damit passen Sie Kunden- und Produktmanagement sowie die Preispolitik an.
  • Analog zum Kunden können all diese Analysen auch bzgl. der Mitarbeiter und der Lieferanten durchgeführt werden. Denn Lieferanten- und Personalmärkte sind ebenfalls Märkte – nur dass die Güter, die Sie anbieten, andere sind.

Anders als in den meisten Büchern empfohlen macht es keinen Sinn, alles, was Sie tun, zu ändern, und schon gar nicht auf einmal. Ganz einfach, weil es zu aufwendig ist. Sie wären Jahre mit sich selbst beschäftigt, anstatt sich um den Kunden zu kümmern. Auch hier ist es ratsam, nach dem Pareto-Prinzip nur an einigen zentralen Stellen zu beginnen. Hierfür habe ich ein Auditsystem entwickelt und erprobt, dem ich den klangvollen Namen „Causality Audit Procedure“ (CAP) gegeben habe.

In CAP gehen wir in drei Schritten vor:

In Schritt 1 bewerten wir die Bedeutung der Stakeholder (Kunden, Lieferanten, Mitarbeiter, etc.) und der dazugehörigen Aktivitätsbereiche. In der folgenden Grafik ist ein Excel-Tool dafür dargestellt. Wir messen einmal die Auswirkungen, wenn man sich um einen Stakeholder nur noch rudimentär kümmert (downside). Dann messen wir die Auswirkungen, die vermutet werden, wenn man das Management des Stakeholder perfektionieren würde.

Im Ergebnis bekommen wir eine Einschätzung, welche Managementbereiche in einem bestimmten Geschäftsfeld von besonderer Bedeutung sind.

In Schritt 2 erfassen wir das Potenzial bestimmter Aktionsfelder wie Positionierung, Branding, Standortwahl etc. Das Potenzial ist umso höher, je höhere seine Bedeutung (siehe Schritt 1) und je höher die Komplexität des Bereichs ist, da deshalb die Anwendung innovativer Lernmethoden besseres Wissen produzieren kann. Weiterhin erfassen wir die Machbarkeit, die sich durch Kosten und Verfügbarkeit von Daten ergibt. Die folgende Abbildung zeigt einen Ausschnitt des dazu verwendeten Exceltools.

All das wird durch Interviews der Führungskräfte aus verschiedenen Funktionsbereichen erstellt. Jede Führungskraft gibt Auskunft über jeden Bereich. Die Ergebnisse werden in einem Workshop besprochen und in Schritt 3 wird ein Maßnahmenplan beschlossen.

 

Eine Organisation bewegen: Change Management

Ach, könnte man nur ein Unternehmen wie am Reißbrett entwerfen und führen. Doch leider gelingt das nur in einer diktatorischen Umgebung. Unsere heutige Kultur und Moral erlaubt eine solche Unternehmensführung heute (zum Glück) nicht mehr.

Da Sie nur in einem Ein-Mann-Unternehmen alles selbst machen können, sollten Sie andere Menschen dazu bewegen, so zu handeln, wie Sie sich das vorstellen. Zugleich sollten Sie immer beachten, dass eine vollkommene Fremdsteuerung von anderen Menschen überhaupt nicht zweckdienlich ist – auch nicht für den Steuernden. Denn ein solches Vorgehen verliert die Fähigkeiten, das Know-how der Menschen und die dezentral vorhandenen Informationen. Zudem wird die steuernde Einheit vollkommen überlastet. Innovative Managementkonzepte nutzen dezentrale Intelligenz und dezentrale Selbststeuerung. Das Ergebnis ist um ein Vielfaches leistungsfähiger – zumindest in einer komplexen und dynamischen Umwelt.

Jedoch ist es sinnvoll, die in diesem Buch besprochenen Kenntnisse in einem Unternehmen zu teilen. So kann jede dezentrale Einheit – jeder Manager – danach handeln. Dazu müssen andere Menschen überzeugt werden. Andere Menschen überzeugen und gewinnen, ist ein zentraler Erfolgsfaktor eines Managers. Ich empfehle jedem Manager den Besuch eines Seminars zum effektiven Überzeugen[1] – ich kenne kaum etwas Wichtigeres. Vergessen Sie Rethorikseminare, Körpersprachtraining und NLP-Workshops. Ich habe selbst all das schon einmal durch.

Wenn Sie beginnen, andere im Unternehmen zu überzeugen, hilft es sicher nicht, mit der Gießkanne vorzugehen. Wie im gesamten Management ist auch hier das 80-20-Prinzip der wichtigste Leitfaden, um effizient zu beginnen. Daher sollten Sie bei den wichtigsten und einflussreichsten Personen in Ihrem Unternehmen anfangen – unabhängig davon, ob diese hierarchisch über oder unter Ihnen stehen.

 



[1] Ich selbst war begeisterter Teilnehmer des Seminars „Effektiv überzeugen“ von Dr. Claudio Weiss. Nach drei Tagen sind Sie gerüstet, um effektiv zu überzeugen. Anders als nach Rhetorikseminaren, nach denen ein diffuses Gefühl zurückbleibt: „Nur noch viel üben und dann klappt’s, vielleicht …“

Veröffentlicht unter Kapitel 6 | Kommentare deaktiviert für 6. Umsetzen: Die Befreiung aus einer Management-Illusion

7. Elevator Pitch

Management bedeutet, soziale Systeme zielführend zu lenken. Im Management von Unternehmen gilt es insbesondere, die Kunden, die Mitarbeiter und die Lieferanten zielgerichtet zu lenken. Diese Systeme sind komplex, denn fast alles, was man lenken möchte, hat viele beeinflussende Faktoren. Herkömmliche Analysemethoden sind nicht geeignet, um die Systeme verstehen zu können und sie effektiv zu steuern, da diese chronisch Scheinerkenntnisse liefern. Wenn die Zielgrößen von vielen Ursachen beeinflusst werden, ist es nur noch mit multivariaten Ursachenanalysen möglich, zu erfahren, wie sich Zielgrößen wirklich steuern lassen. Nur diese Methoden können Scheinerkenntnisse vermeiden.

An wirkungsvolle multivariate Ursachenanalysen sind drei Anforderungen zu stellen: 1. Sollten die Methoden entdeckend vorgehen können, da in der Praxis im Vorhinein kein umfangreiches Vorwissen vorhanden ist. Genau deshalb sucht man ja nach Zusammenhängen. 2. Sollten die Methoden Nichtlinearitäten und Interaktionen entdecken können, da die Realität genau diese Eigenschaften besitzt. Herkömmliche Methoden werden der Komplexität der Realität nicht gerecht. 3. und letztens sollte die Methoden mit kleinen Stichproben effizient umgehen können, denn sowohl aufgrund der Stichproben-Kosten als auch aufgrund begrenzter Grundgesamtheiten sind Stichproben fast immer zu klein. NEUSREL ist der erste Methodenverbund, der all diesen Anforderungen wirklich gerecht wird, und ist deshalb die Methode der Wahl für nützliche Analyseergebnisse.

Um ihre Erkenntnisse aus diesem Buch umzusetzen, empfiehlt sich im ersten Schritt ein Auditing der Ist-Situation. Es ist wichtig zu erkennen, in welchen Bereichen am meisten erreicht werden kann und welche Methoden Einsatz finden sollten. Zur Umsetzung gehört ebenso ein Umgestalten des Performance Managements und des Controllings. Steuern Sie nicht mehr mit KPIs (Key Performance Indicators) sondern mit KDIs (Key Driver Indicators). Die Kontrolle der Ist-Zahlen wie Gewinn, Kosten oder Margen findet sinnvoller Weise mit der CAT-Methode (ursachenbasierte Aggregation von Transaktionsdaten) statt, da nur so abgeleitet werden kann, warum die Zahlen so sind, wie sie sind.

In diesem Buch beschreibe ich keine noch nicht publizierten Erkenntnisse. Neu ist die Erkenntnis der bislang unerkannten Bedeutung adäquater Analysemethoden für das Management von Unternehmen.

 

Veröffentlicht unter Kapitel 7 | Kommentare deaktiviert für 7. Elevator Pitch