Die verzweifelte Suche nach dem Heil in einer „lückenlosen“ Datenerfassung

Die Scheu vor „weichen“ Daten führt zu der Gefahr der Fixierung auf vermeintlich „gesicherte Messwerte“, also auf (lediglich zufällig) messbare Daten mit bis dato erfundenen Messinstrumenten. Heinz von Förster gibt ein schönes Beispiel, wie wir Zahlen und analytische Sichtweisen erfinden: „Manchmal tuen es Zahlen, manchmal nicht. Mann kann nicht fünf Bücher ins Regal stellen, wenn man nur drei hat. Ein anderer sagt aber: Paß auf, du kannst ohne weiteres fünf von drei abziehen, wenn Du Zahlen hast, die diese besonderen Operationen kennzeichnen. Wenn Du ein kleines horizontales Strichlein vor diese Zahl setzt, die du da schon abgezogen hast, dann hast Du eine Zahl mit einem horizontalen Strichlein vorne. Das nennt man „Minus“ und dann erhältst du -2. Damit kannst Du operieren, als wäre es wie +2, wenn du nur diese zusätzlichen Regeln miteinbeziehst. Es war eine Erfindung, dieses Problem auf diese Weise zu lösen. Und so wurde eine prinzipiell unbeantwortbare Frage durch eine elegante Erfindung plötzlich beantwortbar. Ein neues Spiel, die negativen Zahlen, war geboren. Die negativen Zahlen sind keine Entdeckung, sie sind eine reine Erfindung“.

Statt zu glauben, sich mit den ermittelten Zahlen absichern zu können, sollte man sich eher vor ihnen hüten. Computerisierung und Quantifizierung der Planung schliessen die Gefahr der Reduktion auf das Messbare und das Vortäuschen einer nicht gegebenen Sicherheit der Voraussicht ein, was zu Illusionen über die Machbarkeit der Zukunft führen kann. Zum einen können nicht alle messbaren Werte gemessen und berücksichtigt werden, wodurch immer nur ein Ausschnitt dargestellt wird. Zum anderen bleiben die Wirkungsbeziehungen der Faktoren untereinander (strukturelle Koppelungen) außen vor. Zudem liefern sie keine Erklärungen. Spätestens im Moment der Interpretation wird die härteste Empirie weich: Die Kontingenz erscheint nun unabweisbar, weil zu allen Faktensammlungen unterschiedliche Interpretationsgeschichten erzählt werden können. Jemand beschreibt „es“, also „ist“ es, wie der Beschreibende es sagt. Er hat die Verantwortung über das „Es“. Niemand kann sagen, wie es ist. Und wenn es „war“, kann niemand rekonstruieren, wie es „war“. Ein Erkenntnisgewinn, der zu einer größeren Sicherheit führt ist folglich nicht möglich.

Alles, was wir tun können, ist, Erklärungen zu erzeugen, die den Mechanismus der Hervorbringung einer Welt enthüllen. Ebenso können (Markt-)analysen nichts erklären. So verhält es sich auch in anderen Disziplinen. Der Biologe kann bequemerweise von großen Evolutionslinien in der Geschichte der Lebewesen auf der Grundlage ihrer Strukturkoppelung mit einem veränderlichen Milieu berichten. Er zuckt aber mit den Schultern, wenn es darum geht, den Wandel eines Tierstammes im einzelnen zu erklären, da er dann nicht nur sämtliche Umweltveränderungen rekonstruieren müßte, sondern auch die Art, wie dieser besondere Stamm solche Fluktuationen gemäß seiner eigenen strukturellen Plastizität kompensiert hat. Im Endeffekt sehen wir uns gezwungen, jeden Einzelfall als Ergebnis von Zufallsvariationen zu beschreiben, da wir den Veränderungsverlauf nur im Nachhinein beschreiben können. Sollten wir bspw. in die Welt des Autofahrens die Fußgänger einbeziehen? Die Antwort auf diese Frage kann nur aus einem außerordentlich diffusen Hintergrund von Überlegungen abgeleitet werden, die wir alle als unweigerlich kontextuell betrachten: wo sich jemand befindet, wieviel Uhr es ist, welche Art von Straße man befährt usw. Es ist, als würden wir ein treibendes Schiff beobachten, das von für uns unvoraussagbaren Veränderungen des Windes und der Gezeiten verändert wird.

Es gibt Operatoren, die einfach fix und fertig sind – und immer wieder dasselbe tun. Ein solches System ist trivial, da sie analytisch determinierbar ist. Eine triviale Maschine bzw. ein triviales System ist durch eine eindeutige Beziehung zwischen ihrem „Input“ (Stimulus, Ursache) und ihrem „Output“ (Reaktion, Wirkung) charakterisiert. Die Grundvorstellung über eine triviale Maschine besteht somit darin, dass sie einerseits einer bewußt vorgefassten Zwecksetzung und einem Plan entsprechend zu konstruieren ist und ihre Funktion, Zuverlässigkeit und Effizienz andererseits abhängig ist von den entsprechenden Funktionen und Eigenschaften ihrer Einzelteile. Damit ist die Vorstellung verbunden, dass alle Einzelteile nach exakten und bis ins Detail ausgearbeiteten Plänen konstruiert und in einer vorgängig genau bestimmten Art und Weise zusammengesetzt werden kann.

Nicht-triviale Systeme (Wirtschaft, Menschen, Organismen, Gesellschaft, Umwelt, etc.) hingegen sind unvoraussagbar, nämlich analytisch nicht erklärbar. Ein einmal nach einem bestimmten Input beobachteter Output wird zu späterer Zeit, auch wenn der Input gleich ist, ein anderer sein. Schon Jay Forrester bemerkte, dass sich komplexe Systeme im Vergleich zu einfachen Systemen „irrational“ verhalten, d.h., sie folgen in ihrem Verhalten einer anderen, ganzheitlichen Rationalität. Diese scheinbare „Irrationalität“ beruht nur auf unseren Erwartungen. Grundsätzlich sind komplexe Situationen weder gedanklich noch faktisch jemals vollständig beherrschbar. Wir werden niemals in der Lage sein zu sagen: „Das nächste Mal, wenn ich auf dieses Phänomen treffe, wird es mir gelingen, ihren Gesamtverlauf vorauszusagen. Nach dem gewöhnlichen Bild der Wissenschaft ist im Prinzip alles voraussagbar und kontrollierbar; und wenn irgendein Ereignis oder Prozeß im Rahmen unseres gegenwärtigen Wissens nicht voraussagbar und kontrollierbar ist, dann wird uns ein wenig mehr Wissen und vor allem ein wenig mehr Know-how befähigen, die freien Variablen vorauszusagen und zu kontrollieren. Wie Gregory Bateson gezeigt hat, ist diese Sicht nicht bloß in den Einzelheiten, sondern prinzipiell falsch. Erstaunlicherweise werden die Ereignisse von komplexen Systemen desto weniger voraussagbar, je mehr die Meßmethoden präzisiert werden. Trotzdem tun wir oft so, als ob es in Wirklichkeit um einfache Systeme ginge, die wir mit mehr Analyse und mehr Daten mit der Zeit schon in den Griff bekommen würden. Wir versuchen auch heute noch in Wissenschaft und Praxis durch die Denkweise des Rationalismus auch solche Systeme mit Hilfe von Logik und exakter Analyse für lösbar zu halten. Ein Ergebnis dieser analytischen Denkweise ist Management in der klassischen Managementlehre, welche Management in eine Reihe von einzelnen Tätigkeiten zerlegt, die dann isolierend weiter analysiert werden. Von dieser Denkweise her werden Lenkungssysteme so entwickelt, wie der Techniker Konstruktionszeichnungen für eine neue Maschine entwirft; diese müssen schliesslich alle notwendigen Angaben enthalten zur tatsächlichen, realen Herstellung der Maschine. Man kann auch sagen, dass es um die Erstellung eines vollständigen Entscheidungsmodells geht oder einer Summe von exakten Verfahrensvorschriften, die nur noch befolgt werden müssen, damit die Maschine tatsächlich entsteht. Obwohl Unternehmen keine Maschinen sind, gehen doch viele Führungskräfte bei der Bewältigung ihrer Aufgaben unbewußt von einem derartigen (von der Managementliteratur unterstützten) technokratischen Ansatz aus. Kennzeichnend dafür ist das Bestreben, durch immer exakteres Messen von Sachverhalten und immer mehr Informationen über Einzelheiten eine Sache gedanklich vollständig in den Griff zu bekommen, um sie faktisch beherrschen zu können. Wir wollen immer gerne von dem, was wir sehen, auf das schließen, was das Geschehene erzeugt. Diesen Erklärungsdrang sollten wir aufgeben. Wir können das nie wissen. Das „warum?“ kann nie beantwortet werden. Selbst Wissenschaft beweist nie irgendetwas. Sie beruht, wie Kunst, Religion, Handel, Kriegsführung und sogar Schlaf, auf Voraussetzungen. Die Wissenschaft sondiert; sie beweist nicht. Alles Wissen ist nur Vermutung – und Theorien sind auch nur Vermutungen mit Hochschulbildung. Antworten auf Fragen zu nicht-trivialen-Systemen sind davon anhängig, welche Antworten der Frager haben möchte bzw. akzeptiert. Fragen und Antworten sind folglich lediglich in gewissen „Formen“ zugegen: in solchen, die den Frager oder den Antworter befriedigen, und in solchen, die den Frager und den Antworter nicht befriedigen. Unser lineares Kausaldenken macht uns folglich blind gegen das, was real fortgesetzt um uns geschieht. Lineares Denken wird immer entweder den teleologischen Trugschluss (daß das Ende den Prozeß determiniert) oder den Mytos von irgendeiner übernatürlichen Kontrollinstanz hervorbringen. Komplexe Systeme verhalten sich lediglich innerhalb eines kurzen Zeitraums wie (triviale) Maschinen, weshalb Hochrechnungen innerhalb eines kurzen Zeithorizontes recht gut funktionieren. Daraus entnimmt man aber, dass für eine längerfristige Prognose lediglich mehr und genauere Daten benötigt werden. Dass man damit einem Irrtum unterliegt, haben wir bspw. bei den Wettervorhersagen längst erfahren müssen. Es steht außer Frage, dass Wolken und Wind relativ einfachen Prinzipen von Bewegung und Wandel gehorchen. Dennoch ist die Meteorologie wegen der Schwierigkeit, alle relevanten Variablen zu erkennen (mit den damit verbundenen Ursache-Wirkungszusammenhängen), bis heute eine nur beschränkt aussagefähige Disziplin (trotz der Vielzahl von mittlerweile erhobenen Daten). Auch die Vorstellung dass die Gene die „Information“ enthalten, die ein Lebewesen spezifiziert ist aus zwei fundamentalen Gründen falsch: Erstens wird dabei das Vererbungsphänomen verwechselt mit dem Replikationsmechanismus gewisser Zellbestandteile (DNS) mit großer transgenerationaler Stabilität. Es ist zweitens falsch, weil wir mit der Behauptung, dass die DNS das Notwendige enthalte, um ein Lebewesen zu spezifizieren, die DNS (eine Komponente des autopoietischen Netzwerks) aus ihrer Einbindung in den Rest des Netzwerks herauszulösen. Es ist jedoch dieses Netzwerk von Interaktionen in seiner Gesamtheit, welches die Charakteristika einer bestimmten Zelle konstruiert und spezifiziert – und nicht etwa nur ein Bestandteil dieser Zelle. Der Fehler besteht somit darin, dass wesentliche Beteiligung mit alleiniger Verantwortung verwechselt wird. Mit der gleichen Berechtigung könnte man behaupten, dass die politische Verfassung eines Landes seine Geschichte bestimmt. Die politische Verfassung ist zwar ein wesentlicher Bestandteil eines Landes, wie auch immer seine Geschichte verläuft, aber sie enthält nicht die „Information“, die die Geschichte im einzelnen bestimmt. Nur triviale Systeme rechtfertigen die Verwendung von Statistiken.

 

Die Welt der Nicht-trivialen-Systeme verlangt die ständige Nutzung unseres gesunden Menschenverstandes oder des Bauchgefühls/Intuition, denn unser adaptives Unterbewusstsein ist in der Lage, sehr schnell all die Unmengen von Daten zu verarbeiten, die auf uns einströmen. Es versteht es hervorragend, die Umwelt einzuschätzen und zu besseren Ergebnissen zu gelangen, als monatelange Untersuchungen. In der Konzentration auf messbare Faktoren bleiben somit die qualitativen fast vollständig unberücksichtigt, obwohl sie für das Verhalten eines Systems und dessen Umwelt eine mindestens ebenso große und für innovative Unternehmen oder Unternehmen, welche sich nicht als passive Anpasser, sondern als aktive Gestalter agieren sogar viel eine größere Rolle spielen. Ein quantitativ erfasstes System wird folglich grundsätzlich „schief“ dargestellt. Es sollte viel stärker auf das geachtet werden, was mit dem jeweiligen Verfahren gerade nicht gemessen wird. Ein innovativer Unternehmer tut Dinge, die er vorher nicht kalkulieren kann und die deshalb ein starkes emotionales, intuitives, kreatives Element enthalten. Je radikaler die Innovation, desto mehr muss er sich auf dieses Element einlassen und auf seine Intuition vertrauen. Alles was neu und anders ist, sieht in der Marktforschung immer erst einmal schlecht aus. In der westlichen Ökonomie ist die Emotion geradezu negativ belegt. Aber der Homo oeconomicus (der Kalkulierer), der sein Programm in seinem Kopf abspult, funktioniert im innovativen Bereich nicht. Ganz nebenbei kann durch Steuerung aufgrund von messbare Kennzahlen (oder Standardisierungen) kein nachhaltiger Wettbewerbsvorteil erreicht werden, da sich alles messbare auch relativ schnell kopieren lässt. Die Zukunft für eine nachhaltige Wettbewerbsfähigkeit liegt somit gerade in den nicht messbaren „weichen Faktoren“ (z.B. extern: Markensubstanz sowie intern: neben Fachkompetenz insbes. Kooperationsfähigkeit und Einsatzbereitschaft). Gerade diese weichen Faktoren (Marken, Emotionen, Gefühle, Werte, Lebensqualität etc.) dienen dem Konsumenten als Orientierungshilfe im Dschungel der Wahlmöglichkeiten und bestimmen sein Kauf- und Einkaufsstättenwahlverhalten (Siehe Kapitel Customer Value). Fragestellungen, wie bspw. welche Empfindungen der eigene Markennamen bei den Verbrauchern auslöst, zu welchen Gemütsverfassungen und Verhaltensbereitschaften dies führt, mit welchen Glaubensgewissheiten, welchen unumstößlichen, rational unangreifbaren Überzeugungen die Gemütsverfassungen verbunden sind und in welchem lebensnotwendigen Sinn diese Glaubensgewissheiten fest verankert sind, bleiben unbeantwortet. All diese erscheinen in keiner Bilanz, keiner GuV und auch nicht in der volkswirtschaftlichen Gesamtrechnung.

Oftmals kommt noch hinzu, dass durch Kennzahlen geführte Unternehmen nicht nur nicht von den Kunden, sondern von Geldgebern gesteuert werden (hier i.d.R. institutionelle Anleger), die (meistens) nur ein kurzfristiges Interesse an Erfolgen bzw. Gewinnen haben. Ein Unternehmer kann ohne Zeit, Geld, Geschäftsplan, gelegentlich auch ohne Talent Erfolg haben, aber nicht ohne einen Markt, d.h. Kunden. Notwendige und hinreichende Bedingung für den Erfolg sind Kunden. Zahlt der Kunde nicht, lebt der Unternehmer nicht. Der Unternehmer lebt, um Kunden zum Zahlen zu bewegen. Der Köder muss dem Fisch und nicht dem Angler schmecken. Blinder Aktionismus sowie die Steuerung nach (Finanz-)Kennzahlen führen lediglich dazu, dass jeder Prozess bis in die Tiefe durchleuchtet wird, um vielleicht noch Bereiche zu identifizieren, wo Kosten gespart, Prozesse optimiert und Synergien erschlossen werden können (alleiniger Fokus auf die Effizienz. Ist man selbst hier am Ende, werden Berater ins Unternehmen geholt, wodurch dann letztendlich die letzten Chancen für Innovationen/Neukombinationen bzw. langfristigen Markterfolg genommen werden). Call-Center werden – obwohl der verlängerte Arm eines Distanzhändlers zum Kunden (als einziger persönliche Kontaktpunkt) – Outgesourced und/oder in Billiglohnländer verlagert, deren Mitarbeiter keinen Bezug zum Unternehmen haben und schon gar nicht die Philosophie eines Unternehmens gegenüber den Kunden leben können. Qualitätssicherung und Services werden runtergefahren, da sich deren Nutzenstiftung beim Kunden (wenn überhaupt) nur schwierig messen und nachweisen läßt - nicht, weil dieser nicht existiert, sondern nur aufgrund eines Mangels an derzeit hierfür verfügbaren, d.h. noch nicht erfundenen Messinstrumenten. Mitarbeiter werden schlechter entlohnt, was zur Folge hat, dass gute Mitarbeiter gehen (bzw. erst gar nicht eingestellt werden), obwohl Wissensarbeiter erst dann erfolgreich sind, wenn sie als Vermögenswert und nicht als Kostenfaktor angesehen und behandelt werden. So ist bspw. für Jack Welch für den Erfolg eines Unternehmens nichts wichtiger, als die richtige Mannschaft aufs Feld zu bekommen. Keine Strategie und keine Technologie der Welt kann das ersetzen. Nur mit Topleuten läuft der Laden. Diese Liste ließe sich noch weiter fortführen. Was aber deutlich wird ist, dass all diese Maßnahmen linear und isoliert nach Kennzahlen betrachtet werden und sowohl die ganzheitliche Wirkung und somit die Interdependenzen solcher Veränderungen im Gesamtgefüge, als auch die qualitativen Größen, wie Kundennutzen oder insbesondere Markensubstanz und -image, unberücksichtigt bleiben, verbunden mit dem (technokratischen) Glauben, dass sich alles bis ins Detail planen und steuern lässt – ganz im Sinne der „trivialen Maschine“. Sie sind nicht vorhersagbar: ein einmal nach einem bestimmten Input beobachteter Output wird zu späterer Zeit, auch wenn der Input gleich ist, ein anderer sein.

Der Fokus liegt auf bestehenden Märkten und auf der Verbesserung der Routine (der Steigerung der Effizienz anstatt der Effektivität). Ein Kostenprogramm jagt somit das andere. Steuerung und Eingriffe erfolgen – aufgrund von Angst vor der Komplexität – isoliert und mit der Konzentration auf die kurzfristige Lösung von Einzelproblemen. Diese „Ersatzteilmentalität“ führt nur zu weiteren Folgereparaturen, ähnlich einer Symptombehandlung in der Medizin. Langfristige Strategien werden gemieden und es wird ein großer Bogen um die Einbeziehung vernetzter Zusammenhänge bzw. der Strukturkoppelung und Interaktion von Systemen gemacht. Dieses Vorgehen wird durch kurzfristiges Denken (und aufgrund von buchhalterischen Anforderungen künstlich erzeugten und wirklichkeitsfernen Zeithorizonten und Stichtagen), zunächst von Jahresbericht zu Jahresbericht bis sogar von Wochenbericht zu Wochenbericht verkürzt, wodurch immer kurzfristigere Maßnahmen und Buchungstricks zur Ergebnissicherung, bzw. zur Erreichung von selbst auferlegten (oder schlimmer noch von Investoren, Banken und/oder Beratern vorgegebenen) Planvorgaben, eingeläutet werden. Planvorgaben sind jedoch nie genau vorhersagbar (hat man positive Planabweichungen, dann werden auch keine Gegenmaßnahmen eingeläutet). Die bisherige Managementtheorie misst den Zielen des unternehmerischen Handelns eine große Bedeutung bei, während die Regeln, die dieses Handeln bestimmen, weitgehend unbeachtet bleiben. Es regiert die Vorstellung, dass sich bei ausreichend großer Anstrengung und reibungsloser Unterstützung moderner Technologien alles im Detail so regeln lässt, dass die Zielvorgaben hundertprozentig erreicht werden. Da dies aber nie der Fall ist, führt die mehr oder weniger starke Verfehlung der Zielvorgabe durchweg zu der Reaktion, die deterministische Kontrolle noch zu verstärken. Dem Versagen der Reglementierung in der Praxis wird mit noch mehr Reglementierung begegnet, einem Davonlaufen der Kosten mit noch mehr Budgetierung und Kostenkontrolle, auf Planungsfehler mit noch mehr deterministischer Planung und Datensammlung usw. Der nötige qualitative Sprung bleibt aus und stattdessen wird nur auf Quantität gesetzt. In erfolgreichen Unternehmen dominieren hingegen qualitative Faktoren, wie bspw. die Vermittlung von Werten, Gefühlen, Emotionen, Lebensqualität sowie den Aufbau einer starken Marke. (Starke) Marken sind absolut irrationale und immaterielle Produkte, nicht kopierbar, keinem Preiswettbewerb ausgeliefert und keiner technologischen Überalterung ausgesetzt. Bei Unternehmen in (alten) Branchen und/oder die aufgrund von Effizienzverbesserungsmaßnahmen die Wirkung qualitativer Faktoren (Marke, Kundennutzen, Werte,…) vernachlässigt haben und folglich unter hohem (Lohn-) kostendruck stehen, schlägt das Faktorpreisausgleichstheorem von Heckscher und Ohlin unerbittlich zu.

Der quantitative Weg ist sicherlich kein Schwindel, aber wenn man sich nur auf das Messen, eine Anschauung der Zahlen, der Numeralität konzentriert, dann erzeugt das Nachteile, denn beide Bereiche (qualitative und quantitative) sind als komplementär zu betrachten. Das eine mit dem anderen macht erst die „Ganzheit“ aus.

 

In der Ökonomie sind konkretere Entwicklungen nur für Tage oder maximal Wochen prognostizierbar, aber keinesfalls für Jahre. Oftmals wird jedoch noch immer geglaubt, dass Voraussagen getroffen werden können, wenn nur genügend Daten vorliegen. Es werden Jahr für Jahr große Summen für Wachstumsprognosen, Marktentwicklungen, etc. verschwendet. Man will wissen, welche Ereignisse eintreten und schaut dabei aber von innen nach außen anstatt sich auf das Unternehmen selbst und sein Verhalten zu konzentrieren. Die umseitige Abbildung verdeutlicht diese Sichtweise. Man richtet sich nach dem, was aussen geschieht, d.h. was macht der Nachbar, was macht die Konkurrenz, wie wird sich der Markt entwickeln usw. Die Antworten beschafft man sich über Expertenbefragungen, Marktanalysen und Hochrechnungen.

Diese Analysen und Szenarios der Zukunft erfolgen dann in der Art, dass Qualitäten gleich bleiben und nur die Quantitäten sich ändern (mehr Autos, breitere Straßen, schnellere Flugzeuge etc.). Über sein eigenes Unternehmen erfährt man dadurch nichts und über die anderen Dinge meist auch nichts Verlässliches. Empirische Forschung hat nichts mit Wirklichkeit oder Wahrheit zu tun. Empirisches Wissen ist nur Wissen von der Welt, so wie wir sie erfahren und so wie wir dieses Wissen dann formulieren. Die Fakten, die man herausarbeitet, lassen sich jedoch nicht im Sinne eines emphatischen Wahrheitsbegriffs interpretieren.

Für Jack Welch ist bspw. Strategie ein lebendiges Spiel. Man sollte das verkropfte Herumreiten auf Zahlen und Daten vergessen, um eine Strategie zu formulieren. Ebenso das Entwickeln von Szenarios, jahrelangen Studien und hundert Seiten lange Berichte. Das alles ist für ihn reine Zeitverschwendung, teuer und überflüssig wie ein Kropf. Das Thema Strategie ist sehr geradlinig. Man wählt eine ungefähre Richtung und strengt sich dann höllisch an, sie umzusetzen. Natürlich können Theorien interessant und Tabellen und Diagramme schön sein. Dicke Stapel von PowerPoint-Folien können das Gefühl vermitteln, man hätte ganze Arbeit geleistet. Aber man sollte das Thema Strategie nicht unnötig verkomplizieren. Je mehr man darüber nachdenkt und sich in Daten und Details verrent, desto tiefer verstrickt man sich. Und umso weniger weiß man, was man eigentlich tun wollte.. Wer auf der Siegerseite stehen will, muss weniger grübeln und mehr handeln. Es herrscht in unserer westlichen Welt aufgrund einer lineare Denkweise (welche wir durch das Denken in Fächern und Kategorien schon von der Schulzeit bis zum Studium und darüber hinaus verinnerlicht bekommen haben) noch immer der Glaube vor, dass die gestiegene Komplexität nur durch noch mehr und genauere Daten (und Rechengeschwindigkeit) bewältigt werden kann und eine Klassifizierung nach Oberbegriffen genügt (auch die Computer sind auf diese Art programmiert. Selbst das Internet ist so strukturiert).


 

 

Vgl. Heinz von Förster, 2002, S.31

 

Vgl. Frederic Vester, 2002, S. 21

 

Vgl. Hans Ulrich, 2001, S. 414

 

Vgl. Siegfried Schmidt, 2002, S.184

 

Vgl. Heinz von Förster, 2002, S.27

 

Vgl. Humberto Maturana, Franceisco Varela, 1987, S.260

 

Vgl. Humberto Maturana, Franceisco Varela, 1987, S.126

 

Vgl. Humberto Maturana, Franceisco Varela, 1987, S.127

 

Vgl. Francisco J. Varela, 1990, S.92ff.

 

Vgl. Heinz von Förster, 1999, S.12

 

Vgl. Hans Ulrich, 2001, S.71f.

 

Vgl. Fredmund Malik, 2000, S.101ff.

 

Vgl. Heinz von Förster, 2002, S.100

 

Vgl. Heinz von Förster, 1999, S.12f.

 

Vgl. Hans Ulrich, 2001, S.304

 

Vgl. Hans Ulrich, 2001, S.370

 

Vgl. Gregora Bateson, 1987, S.39

 

Vgl. Gregory Bateson, 1987, S.54f.

 

Vgl. Gregory Bateson, 1987, S.59f.

 

Vgl. Gregory Bateson, 1987, S.59f.

 

Vgl. Hans Ulrich, 2001, S.304

 

Vgl. Hans Ulrich, 2001, S.71

 

Vgl. Hans Ulrich, 2001, S.71

 

Vgl. Hans Ulrich, 2001, S.71

 

Vgl. Hans Ulrich, 2001, S.71

 

Vgl. Hans Ulrich, 2001, S.71

 

Vgl. Heinz von Förster, 2002, S.101

 

Vgl. Heinz von Förster, 2002, S.100

 

Vgl. Gregory Bateson, 1984, S.37

 

Vgl. Gregory Bateson, 1987, S.34

 

Vgl. Gregory Bateson, 1987, S.40

 

Vgl. Hans Ulrich, 2001, S.282

 

Vgl. Heinz von Förster, 2002, S.100

 

Vgl. Hans Ulrich, 2001, S.271

 

Vgl. Gregory Bateson, 1987, S.80

 

Vgl. Frederic Vester, 2002, S. 93f. Die Datenfülle, Satellitenbilder, Computersimulationen und die Anzahl der Wettermessstationen hat sich seit den sechziger Jahren vertausendfacht, wodurch zwar die Prognosen für einen Zeitraum von wenigen Stunden sehr viel sicherer geworden sind. Wettervorhersagen über einen Zeitraum von 24 Stunden hinaus sind jedoch nach wie vor Zufallstreffer geblieben. Der Zeithorizont konnte also durch die Datenfülle um keinen Deut besser werden.

 

Vgl. Humberto Maturana, Francisco Varela, 1987, S.135

 

Vgl. Humberto Maturana, Francisco Varela, 1987, S.78

 

Vgl. Humberto Maturana, Francisco Varela, 1987, S.78

 

Vgl. Gregory Bateson, 1984, S.59f.

 

Vgl. Malcom Gladwell, 2005, S.17f.

 

Vgl. Malcom Gladwell, 2005, S.9ff.

 

Vgl. Frederic Vester, 2002, S. 20f.

 

Vgl. Malcom Gladwell, 2005, S.175

 

Vgl. Jochen Röpke, 2002c, S.112

 

Vgl. Zernisch, 2003, S.21f.

 

Insbesondere das materielle Wertesystem wird verstärkt in Frage gestellt: Geld, Karriere und Konsum taugen als Koordinaten für das Lebensglück nicht mehr. Die immateriellen Werte, wie Liebe, Freundschaft, Reife, Einfachheit, Zufriedenheit, Echtheit, Gesundheit, Wohlbefinden, Lebensqualität,… rücken verstärkt in den Vordergrund (auch bei Kaufentscheidungen). Vgl. Andreas Giger, Wege aus der Sättigungsfalle – Lebensqualitätsmärkte, 2004, S.42ff.

 

Die wichtigsten Lebensqualitätskiller sind: Zeitklau, Mangelnder Respekt vor dem Kunden, Beleidigung für Auge und/oder Verstand, Alles, was nicht benutzerfreundlich ist, Mangelnde Durchschaubarkeit von Angeboten. Lebensqualität verbessern kann alles, was das seelische und körperliche Wohlbefinden fördert, was das eigene Wissen vermehrt, alles, auf das man sich wirklich verlassen kann, was mehr „Eigenzeit“ bringt, was wirklich Qualität hat und ist, was das Leben angenehmer, leichter und einfacher macht, was das Beziehungsnetz wachsen lässt, was Stress vermindert und verhindert und was in der Kunst des Lebens weiterhilft. Was Lebensqualität ist, kann jede(r) nur für sich sagen. Vgl. Andreas Giger, Zukunftsinstitut, Wege aus der Sättigungsfalle – Lebensqualitätsmärkte, Trendstudie 2004, S.17f

 

Vgl. Zernisch, 2003, S.182

 

Vgl. Leo A. Nefiodow, 2000, S.146ff. Zwischen Fachkompetenz und Kooperationsfähigkeit und Einsatzbereitschaft bestehen wesentliche Unterschiede. Fachkompetenz ist eine kognitive Fähigkeit, die sich von aussen einkaufen lässt. Mit Fachwissen allein wird man weniger komparative Vorteile erreichen können. Kooperationsfähigkeit und Einsatzbereitschaft sind jedoch keine kognitiven Fähigkeiten, sondern psychosoziale, die jedes Unternehmen selbst entwickeln muss und sich nicht einkaufen lassen.. Bei beiden geht es nicht um logisches Denken, sondern um die Qualität des Verhaltens. Wie wohlwollend geht man mit anderen Menschen um? Werden die Kollegen, der Vorgesetzte, die Mitarbeiter, die Kunden usw. akzeptiert, oder nur als Mittel mißbraucht, die eigenen Ziele zu erreichen? Wie ist die innere Einstellung zur Arbeit und zum Betrieb? Die seelische Gesundheit und die aus ihr hervorgehenden sozialen Fähigkeiten und produktiven Kräfte wie Zusammenarbeit, Menschenkenntnis, Kreativität, Motivation und Lernbereitschaft werden immer wichtiger werden. Vgl. Leo A. Nefiodow, 2000, S.145

 

Vgl. Fredmund Malik, 2004, S.47

 

Vgl. Jochen Röpke, 2002, S. 171

 

Vgl. Peter Drucker, 1999, S. 189 ff. Wissensarbeiter sind im Gegensatz zu Industriearbeitern im Besitz der Produktionsmittel. Ihr Wissen ist beweglich und stellt einen gewaltigen Vermögensgegenstand dar. Es entspricht nicht mehr den Tatsachen, dass sie den Arbeitsplatz dringender benötigen, als der Arbeitsplatz sie, so wie das für den Industriearbeiter im Industriezeitalter galt. Vgl. Peter Drucker, 1999, S. 210

 

Vgl. Jack Welch, 2005, S.93

 

Vgl. Frederik Vester, 2002, S. 75f. Ebenso Zernisch, 2003, S.167ff.

 

Vgl. Heinz von Förster, 1999, S.12f.

 

Vgl. Frederik Vester, 2002, S.62

 

Vgl. Frederic Vester, 2002, S. 177

 

Vgl. Zernisch, 2003, S.22

 

Vgl. Jochen Röpke, 2003b, S.12 Nach dem Faktorausgleichstheorem führt internat. Handel tendenziell zu einem Ausgleich der Reallöhne auch ohne internat. Mobilität der Arbeitskräfte.

 

Vgl. Heinz von Förster, 2002, S.41

 

Vgl. Frederic Vester, 2002, S.94

 

Vgl. Heinz von Förster, 1999, S.10

 

Vgl. Siegfried Schmidt, 2002, S.183

 

Vgl. Jack Welch, 2005, S.179

 

Vgl. Jack Welch, 2005, S.179

 

Vgl. Jack Welch, 2005, S.180

 

Vgl. Jack Welch, 2005, S.180

 

So fragt Gregory Bateson – wohl einer der tiefgründigsten Denker unseres Jahrhunderts – warum die Schulen fast nichts über das Muster, das verbindet, lehren? Vgl. Gregory Bateson, 1984, S.15. Oder auch Frederic Vester: “Wenn vom vernetzten Denken die Rede ist – das wir als Vorschulkinder alle einmal beherrschten (denn nur ganzheitlich und nicht in Fächer eingeteilt erlebten wir zunächst die Welt) -, meinen viele, dass das etwas dem menschlichen Geist Fremdes sei, das man ganz neu erlernen müsse. Vgl. Frederic Vester, 2002, S.16. Auch Intelligenztests sind das Produkt eines nicht ganzheitlichen Denkens und messen gerade nicht die Fähigkeit, die zum Entscheiden in komplexen Situationen erforderlich ist. Man erkennt daran, welche verheerende soziale Selektion wir betreiben, wenn wir die weitere Laufbahn schon bei Kindern von Intelligenztests erreichten Punktzahlen abhängig machen. Vgl Hans Ulrich, 2001, S.284

Hinterlasse eine Antwort

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

Du kannst folgende HTML-Tags benutzen: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>

*
To prove you're a person (not a spam script), type the security word shown in the picture. Click on the picture to hear an audio file of the word.
Click to hear an audio file of the anti-spam word