Wie uns unser Gehirn im Projekt(-Alltag) austrickst

Tagein, tagaus werden wir mit einer Vielzahl von Eindrücken und Informationen konfrontiert – im Projektgeschäft wie auch privat. Über die Jahre hat unser Gehirn Systematiken gefunden, diese Flut zu verarbeiten. Filter und Heuristiken, erlernt aus den Erfahrungen, vereinfachen die Informationsaufnahme und –verarbeitung und helfen uns bei der Entscheidungsfindung. So wichtig und notwendig diese Vereinfachungen sind, um den Alltag zu bewältigen, so gefährlich sind sie auch: Relevante Aspekte werden übersehen oder falsche Schlüsse aufgrund der vorliegenden Daten gezogen. Machen wir uns die Fallen des Denkens bewusst, können wir reflektieren und im Projekt sowie im Alltag besser entscheiden.

Rolf Dobelli hat einige dieser systematischen Irrtümer beschrieben. Am folgenden, fiktiven Beispiel stellen wir ausgewählte Fehler und deren Implikationen auf das Arbeitsleben und Projektgeschäft dar.

Case

Unser Beispielunternehmen verzeichnet im zweiten Jahr in Folge Umsatzeinbußen. Der Vorstand beauftragt einen der Manager, den Umsatz im Folgejahr zu stabilisieren und dann zu steigern. Dieser ruft ein Projekt ins Leben, das sich der Problematik annehmen soll . Der verantwortliche Manager lädt potenzielle Branchenexperten ein, um die Position des Projektleiters zu besetzen .

Die Experten berichten, dass sie alle vergangenen Projekte zum Erfolg geführt haben und unterstreichen dies durch die Vorstellung einer Auswahl von besonders gut verlaufenen Projekten. Von missglückten Vorhaben wird nicht berichtet, warum sollten sie dies auch tun .

Der Manager wählt einen Experten als Projektleiter aus und stellt ihm ein Team zur Verfügung. Das neue Projektteam startet mit einer Situationsanalyse. Sie blättern durch diverse Unterlagen, Auswertungen und Zahlen, die ihnen der Manager zugespielt hat. Sie sprechen mit den Mitarbeitern, die ihnen vom Manager genannt wurden, schließlich müssen sie sich einen Überblick verschaffen .

Das Team entwickelt eine Strategie, zugehörige Maßnahmen und prognostiziert deren Wirkung. Sie erarbeiten eine Kosten-Nutzen-Analyse, Zeitpläne usw. . Der Manager lässt sich überzeugen und zeigt sich mit dem Vorgehen einverstanden.

Das Management ruft also die vom Team entwickelte Strategie aus, der Umsetzungsfortschritt wird überwacht. Die Prognose des Projektleiters lautet, dass es zunächst schlimmer kommt, bevor es besser wird. So wird er, wie jeder Ahnungslose, Recht behalten. Es kommt wie es kommen muss, es wird zunächst schlechter ⑤. Anschließend folgen überall Anzeichen dafür, dass die Strategie fruchtet, man feiert das neue Vorgehen . Doch wie haltbar sind die Aussagen über die Erfolge?

Analyse

In dem Fall verbergen sich sieben mehr oder weniger offensichtliche „Denkfehler“, die, wenn man sie sich bewusst macht, vermieden, bzw. ihre Auswirkungen reduziert werden können.

① The Authority Bias oder die Autoritätsfalle

Der Manager beauftragt den Projektleiter.

Wir Menschen neigen dazu, Experten zu trauen. In ihrer Anwesenheit schalten wir das selbstständige Denken zurück (s.a. Stanley Milgram).

> Statements zu Kompetenzen, Fähigkeiten und Erfolgen sollten wir uns erläutern lassen, bspw. anhand von konkreten Situationen, Beispielen und Handlungsbeschreibungen. Anstelle von blindem Trauen und Folgen können wir durch detaillierte Rückfragen die Glaubwürdigkeit von Thesen und Meinungen prüfen.

② The Survivorship Bias oder „Überlebensirrtum“ 

Die Projektleiter berichten von ihren Erfolgen.

Erfolge sind sichtbarer als Misserfolge, nicht zuletzt, weil wir lieber über Erfolge berichten. So überschätzen wir regelmäßig die Aussicht auf Erfolg.

> Sollen wir Erfolgsgeschichten nicht trauen, da neben ihnen unzählige Misserfolgsgeschichten stehen? Sollen wir die Umsetzung von Ideen und Projekten vermeiden, da ein Scheitern doch wahrscheinlicher ist?
Nein. Jedoch schadet es nicht, Themen mit einer gesunden Portion Realismus und einem Blick auf die weniger offensichtlichen Misserfolge anzugehen. Wir werden sogar feststellen, dass selbst identische Rahmenbedingungen nicht zwingend mit Erfolg einhergehen.
Wir sollten uns bewusst sein, dass Fähigkeiten oder eine gute Idee alleine nicht reichen – der Zufall ist ein entscheidender Unterstützer der Erfolgreichen.

③ The Availability Bias oder der Verfügbarkeitsirrtum

Das Team analysiert die vorgegebenen Informationsquellen.

Es wird das analysiert und über das diskutiert, was vorliegt, nicht darüber, was nicht vorliegt.

> Wir sollten zunächst die verfügbaren Daten hinterfragen: Geben sie ein vollständiges Bild wieder, oder belegen sie nur das, was wir sehen möchten?
Wir sollten Impulse von Andersdenkern und Menschen mit anderem Erfahrungshintergrund einbeziehen. So reduzieren wir die Gefahr der falschen Schlüsse.
Zur Selbstdisziplin ermahnen organisatorische Maßnahmen, welche die wichtigsten Entscheidungsprozesse absichern können. Eine strukturierte Dokumentation bewahrt vor voreiligen Entscheidungen.

④ Der Overconfidence-Effekt oder Selbstüberschätzung

Das Projektteam stellt Schätzungen an.

Kennen Sie ein Großprojekt, welches schneller oder günstiger fertiggestellt wird, als es geschätzt wurde?

> Falls Ihnen nicht viele einfallen, kann das an der systematischen Selbstüberschätzung des eigenen Wissens liegen. Selbst Pessimisten sind nicht ausgenommen, hier ist die Abweichung zur Realität nur geringer.
Prognosen sollten also kritisch und mit einer guten Portion Pessimismus hinterfragt werden. Lässt es die Komplexität des Vorhabens zu, sollten auch unwahrscheinliche Negativszenarien geprüft, bzw. ein Risikopuffer einkalkuliert werden. Hilfestellung gibt die Szenariotechnik: Wir werden feststellen, dass einige der Negativereignisse gar nicht so unwahrscheinlich sind.

⑤ Es-wird-schlimmer-bevor-es-besser-kommt-Falle

Es wird die Annahme aufgestellt: „Es-wird-schlimmer-bevor-es-besser-kommt.“

„Es-wird-schlimmer-bevor-es-besser-kommt“ ist der Allrounder aller ahnungslosen Fachleute, die auf diese Weise Recht behalten, ihre „Kompetenz“ wird bei Eintreten einer Abwärtsbewegung unterstrichen.

> Es gibt tatsächlich Situationen und Umstände, wo Verbesserungen Zeit kosten, beispielsweise bei Reorganisationsmaßnahmen.
Sollten die Maßnahmen jedoch länger keine Wirkung zeigen, sollten wir achtsam sein und prüfen, ob der Kurs noch stimmt und beibehalten werden sollte.

⑥ The Confirmation Bias oder die Verifikationsfalle

Hinweise auf den Erfolg werden gefeiert, Zeichen für Misserfolg ignoriert.

Jedes Anzeichen dafür, dass man sich auf dem richtigen Weg befindet, wird hervorgehoben. Ergibt die Messung allerdings Werte, die von diesem Weg abweichen, werden diese als Ausrutscher abgetan und wieder vergessen.

> Unsere Gehirne interpretieren neue Informationen so, dass sie mit unseren bestehenden Einstellungen und Annahmen zusammenpassen, wir verifizieren. Widersprüche werden nicht wahrgenommen oder als Sonderfall abgetan. Dieses Muster kann durchbrochen werden, indem Spezialfällen besonders viel Aufmerksamkeit geschenkt wird und Annahmen falsifiziert werden. Charles Darwin hat es uns vorgemacht und sich insbesondere beobachtete Abweichungen seiner Theorien notiert. Je überzeugter er von einer Theorie war, desto mehr suchte er nach Widersprüchen.

⑦ The Incentive-Superresponse-Tendenz oder die Anreizsensitivität

Was ist eigentlich mit den Hintergründen des Projektausrufs auf sich? Welches Ziel ist dort gesetzt?
Falls das Verhalten von Menschen und Organisationen ungewöhnlich ist, sollten wir das zu Grunde liegende Anreizsystem hinterfragen. Bei der nächsten Zielvereinbarung sollten wir die eigentliche Absicht untermauern.

Management by Objectives (MBO): Bei Zielerreichung werden Boni ausgezahlt. Der Fokus wird auf das Ziel und nicht die gewinnbringende Unternehmensführung gesetzt.

> Menschen reagieren auf Anreizsysteme und maximieren ihren persönlichen Nutzen, auch wenn der Zweck der Anreize damit verfehlt wird. Gute Anreizsysteme decken sich mit der Absicht. Im alten Rom musste der Ingenieur einer Brücke bei der Eröffnung unter ihr stehen. Sie war stabil.

Kenntnis über die Irrtümer nutzen

Das Wissen über die Funktion des Gehirns, darüber, wie wir Informationen wahrnehmen und Schlüsse ziehen, wie wir entscheiden und welche Fehler dabei passieren können, fordert uns regelrecht auf, zu hinterfragen.

  •  Sind die Informationen vollständig?
  •  Auf welchen Annahmen basieren Prognosen?
  •  Sind mögliche negative Eventualitäten bedacht worden?
  •  Was sagen die Darstellungen zum Projektfortschritt wirklich?
  •  Welche Widersprüche bestehen?
  •  Genügen die vorliegenden Informationen, um Entscheidungen zu treffen?

Erfahrungsgemäß ist das Verhindern der Irrtümer, insbesondere in unserem schnelllebigen Alltag, eine kaum erreichbare Aufgabe. Wir müssen schnell agieren und reagieren und verlassen uns dabei auf unsere erlernten Verhaltens- und Entscheidungsmuster.

Unser Fazit: Bei besonders wichtigen Entscheidungen oder weitreichenden Konsequenzen sollten wir uns auch im Projektrauschen bewusst die Zeit zur Reflektion nehmen.

Autoren

Christiane Dick
Matthias Preuß

Quellen und weiterführende Lektüre:

  • Die Kunst des klaren Denkens: 52 Denkfehler, die Sie besser anderen überlassen, 2011, Rolf Dobelli, Hanser Verlag

  1. The Authority Bias oder die Autoritätsfalle (S. 37-39)
  2. The Survivorship Bias oder „Überlebensirrtum“ (S. 5-7)
  3. The Availability Bias oder der Verfügbarkeitsirrtum (S. 45-47)
  4. Der Overconfidence-Effekt oder Selbstüberschätzung (S. 13-15)
  5. Es-wird-schlimmer-bevor-es-besser-kommt-Falle (S. 49-51)
  6. The Confirmation Bias oder die Verifikationsfalle (S. 29-31)
  7. The Incentive-Superresponse-Tendenz oder die Anreizsensitivität (S. 69-7
  • https://de.wikipedia.org/wiki/Milgram-Experiment