Denkstudio für strategisches Wissensmanagement zur Analyse mittelstandsorientierter Businessoptionen auf der Basis von Personalbilanzen und Standortbilanzen,

Jörg Becker Friedrichsdorf

Dipl.Kfm. Jörg Becker Friedrichsdorf
Dipl.Kfm. Jörg Becker Friedrichsdorf

Die unablässige Suche nach immer mehr Informationen versperrt den Bli- Mittck für das, was wirklich wichtig ist. Oft ist weniger mehr. Business Intelligence generiert vor allem Basisinformationen für zukunftsorientierte Prognosen und Planungen

Wissensmanagement – Big Data ist nicht Big Wissen.

Reduktion der Komplexität:

man muss gründlich nachdenken, um aus der schieren Datenflut wirklich benötigtes Wissen herauszufiltern

J. Becker Denkstudio

Vom Data Mining vollzieht sich in Form von Reality Mining ein lautloser Übergang zur Analyse ganzer Lebensmuster realer Menschen. Die solche neuen Realitäten schaffen, Macht ausüben und damit ihr Geld verdienen, können sie selbst in kleinsten Stücken vermarkten und die eigentlichen Eigentümer der Datenrechte nicht nur enteignen, sondern sie auch kontrollieren oder gar manipulieren

Nüchternes Kalkül ist manchmal besser als Erfahrungswissen: umgekehrt kann auch eine kalt kalkulierte Wahrscheinlichkeitsrechnung in die Irre führen, wenn hierbei zugrunde gelegte empirische Parameter falsch gesetzt wurden. Philosophisch betrachtet könnte man Wahrscheinlichkeit auch als den Grad des Glaubens an die Wahrheit definieren. 

Journalisten sind (sehen sich gerne als) Welterklärer: um das, was um uns geschieht, für Leser verständlich darzustellen (zu machen). Unabhängig von der Technik und von dem Medium, für welches ein Journalist arbeitet. An erster Stelle steht nach wie vor (noch) das Gedruckte. Das gedruckte Layout kann auf einen Blick ein vielseitiges Kaleidoskop interessanter Sachverhalte bieten. Da die Welt nun einmal so ist wie sie ist können (müssen) Druck und Netz auch in der Medienwelt nebeneinander, besser miteinander, existieren. Noch immer ist der Mensch entscheidend, dessen Kenntnis und Kreativität die Qualität von Wissenstransfers prägt. 

Wichtig ist, sich vor Augen zu halten, dass ein Modell nie besser ist als die Annahmen, mit denen man rechnet. Zudem kann immer auch Unvorhergesehenes passieren. Deshalb versucht man in der angewandten Mathematik, fehlende Parameter so zu schätzen, dass sie zum bisherigen Verlauf passen. Die Kunst dabei ist, richtig zu modellieren, also mathematische Modelle für ein reales Problem zu erstellen.

So wie damals die Dampfmaschine das Ausüben von Arbeitskraft verstärkt hat, so erweitert heute der Computer die Möglichkeiten, Wissen aufzufinden. Das Starten einer digitalen Suchmaschine zur Erschließung von Wissen im Internet geht schneller und leichter als die Befragung eines Experten. Die Welt wird quasi am Bildschirm lesbar, das Wirkliche zum Bestand gemacht. Die Automatisierung von Expertenwissen bringt in einer informationsüberfluteten Gesellschaft Vorteile. Aber so wenig, wie Menschen vollständig von Dampfmaschinen abgelöst wurden, so wenig wird man auch trotz Internet auf Experten verzichten können. Aber weil jeder Wissen googeln kann, bleibt nicht alles so wie es ist. Die Autorität von Experten basiert jetzt weniger auf dem Umstand, mehr zu wissen. Als vielmehr darauf, den strukturellen Überblick zu besitzen, um neues Wissen  angemessen und sachgerecht bewerten und einordnen zu können. Denn Suchmaschinen automatisieren das Finden von Wissen, nicht aber seine Produktion. 

Nicht wenige fühlen, das alles, was in zahllosen Rechnern an Daten wahrgenommen und verarbeitet wird, nicht ausreichen wird, um für die Welt, in der wir uns bewegen, benötigtes Entscheidungswissen zu erzeugen. Der Versuch, fehlendes Wissen, durch Berücksichtigung von immer mehr Informationen zu kompensieren, führt in eine Endlosschleife. Mögliche Erklärung sind u.U. konzeptionelle Defizite, beispielsweise: dass die Potentiale, die Informationsbedürfnisse des Managements umfassend und flexibel abzudecken, viel zu hoch angesetzt werden, dass die Vorstellung vom „vernetzten Manager“ oder „gläsernen Unternehmen“ in der Realität als überzogen erscheint. Was nötig ist, sich Grenzen des Wissens einzugestehen und sich nicht mit immer mehr Informationen über dessen Fehlen hinwegzutäuschen. Es braucht Personen, die den Mut haben, ohne Rechthaberei zu ihrem fragilen Wissen zu stehen.

Komplexität als eine Eigenschaft der uns umgebenden Welt zu akzeptieren, bedeutet, sich darauf einzulassen. Komplexität ist ein Zustand, der sich in ständiger Veränderung in Bezug auf das Ganze befindet. Es geht um das Verständnis der eigenen Rolle bei der Auseinandersetzung  mit den Problemen, die zum einen aus Absichten, Zielen und Plänen, zum anderen aus den vorgefundenen Bedingungen resultieren. Die Situation ist der Betrachtung eines komplizierten Kunstwerks im Halbdunkel vergleichbar, dessen einzelne Facetten durch die Beleuchtung aus jeweils verschieden ausgerichteten Lichtquellen unterschiedliche deutlich hervortreten, d.h. komplex geht es zu, wenn es unüberschaubar, vernetzt, eigendynamisch, undurchsichtig, wahrscheinlichkeitsabhängig oder instabil ist.

J. Becker Denkstudio

Seien es Flüchtlingsströme, Migranten, Terrornetzwerke, Klimawandel, G-20-Treffen, Freihandelsabkommen oder riesige chinesische Infrastrukturprojekte, Nationalismus, Protektionismus, Separatismus, Veränderung der Arbeitswelten oder soziale Plattformen: als Universalerklärung steht immer die Globalisierung im Raum. „Die Globalisierung gilt es Grund für die Armut in Ländern des globalen Südens genauso wie für deren Verringerung; für Biodiversität und gleichzeitig für das Artensterben; für die Ablehnung der EU wie auch für die Zustimmung zu ihr……aus dem Blickwinkel der Globalisierung ließen sich ganz disparate Erscheinungen aufeinander beziehen, erwiesen sich die großen Menschheitsfragen mit der alltäglich erfahrbaren Lebenswelt verknüpft, ja schien letztlich alles mit allem verbunden. Erderwärmung, Wanderungsbewegungen, internationale Standortkonkurrenz, erschwingliche Flugreisen, Austausch über das Internet und peruanische Musikgruppen in deutschen Fußgängerzonen – alles bezeugte den einen großen Zusammenhang.“

J. Becker Denkstudio

Auf der Basis von datenzentrischen Produkten (Sammlung und Aufbereitung von Daten) sind neue Geschäftsmodelle entstanden. Dabei geht es um die Fähigkeit, externe Daten- und Wissenssammlungen mit der eigenen Informationsbasis zu verknüpfen: durch die bedarfsgerechte immer wieder neue Kombination von Daten entstehen neue Möglichkeiten und Wertschöpfungsnetze. Der Fokus liegt nicht mehr auf der Produktion physischer Güter, sondern konzentriert sich im Sinne einer immateriellen Wertschöpfung auf die Sammlung und Aufbereitung von Informationen. Der Schlüssel ist die Evaluierung und Auswahl relevanter Informationen. Das weltweite Informationsvolumen verdoppelte sich etwa alle zwei Jahre. Es kommt also darauf an, Ordnung zu schaffen und den geschäftlichen Wert der Daten für bessere Entscheidungen und Prozesse zu erschließen. Die Qualität von Informationen steht und fällt mit der Qualität der Datenbasis. Wenn Datenqualität und Informationsqualität auseinanderklaffen, versinken wir im Treibsand der Daten.

Menschen nutzen ihre Fähigkeiten, Muster zu erkennen und zu verstehen, um sich Entscheidungen zu erleichtern, um Vorteile zu erlangen oder um Leid zu vermeiden. Wichtig ist, dabei auf das Wissen um widerkehrende Muster zuzugreifen, damit nicht jede Entscheidung immer wieder von Grund auf neu be- und durchdacht werden muss. Auch Wirtschaft und Märkte verlaufen gemäß Mustern. Manche dieser Muster werden als Zyklen bezeichnet. Sie ergeben sich aus natürlich auftretenden Phänomenen, aber auch dem Auf und Ab der menschlichen Psyche und dem daraus resultierenden Verhalten. Gewisse Ereignisse widerfahren allen, die in einem bestimmten Umfeld arbeiten, gleichermaßen. Aber nicht alle hören gleichermaßen auf sie. 

Kreativität ist eine Black-Box, von der niemand weiß, was drinnen vorgeht.  Zwar können Computerprogramme Quizfragen beantworten oder medizinische Diagnosen erstellen. Aber was ist mit einer weitere Domäne des Menschen: der Kreativität? Ist Kreativität so etwas wie ein Etikett, das man auf kognitive Prozesse klebt, solange man sie nicht versteht? Das Problem dabei: nach wie vor bereitet es Schwierigkeiten, menschliche Kreativität überhaupt verstehen zu können. Was eine Voraussetzung dafür wäre, den menschlichen Geist mit künstlicher Intelligenz nachzubilden. Eine einfache Form von Kreativität besteht darin, bekannte Elemente auf eine neue Weise zu kombinieren.

J. Becker Denkstudio

Ökonomen untersuchen mit Modellen, wann und unter welchen Bedingungen Märkte funktionieren. Man will beschreiben, was (und warum es) in bestimmten Märkten passiert. Unterlegt wird in diesen Modellen meist ein Homo oeconomicus, ähnlich wie bei einer Landkarte, die auch wegen ihrer Realitätsferne so nützlich ist: eine Landkarte im Maßstab eins zu eins wäre nutzlos. „Der Homo oeconomicus ist  notwendig wenn man mit Hilfe von Modellen die Realität verstehen will. „Mit der Modellannahme eines irrationalen Menschen lassen sich keine verlässlichen Prognosen und Hypothesen mehr aufstellen, es ist ja gerade das Wesen der Irrationalität, dass sie sich jeglichen Erklärungsversuchen und damit jeglicher Modellbildung entzieht“. Reale Menschen rechnen oft nicht erst, bevor sie entscheiden, sondern nutzen Intuition, Handlungsnormen, Routinen, Prinzipien, Überzeugungen, Konzepte u.a. Was nicht heißt, dass Modelle unnütz wären. Viele der intuitiven oder erlernten Verhaltensweisen sind nicht irrational sondern hocheffizient (da sie über lange Zeit in einem biologischen, kulturellen, evolutionären Prozess als bewährte Prinzipien der Entscheidungsbildung entstanden sind). Viele Märkte funktionieren so wie sie sich über Jahrhunderte hinweg gebildet und eingespielt haben. Mit ihren Modellen versuchen Ökonomen lediglich das rational ab- und nachzubilden, was Menschen aus ihrer Entwicklung heraus richtig machen (können, sollen).

J. Becker Denkstudio

Damit Strategien wirken, müssen sie kommuniziert werden. Probleme bei der Umsetzung von Strategien können nicht zuletzt auch dadurch entstehen, dass eine Strategie so unklar formuliert ist, dass die für die Umsetzung Verantwortlichen nicht immer genau wissen, was überhaupt umgesetzt werden soll. Damit eine Strategie die durch sie erwünschten und erhofften Veränderungen aber überhaupt auslösen kann, muss sie auch nachvollziehbar an diejenigen kommuniziert werden, die sie umsetzen müssen. Eine geeignete Kommunikationsplattform hierfür ist eine Wissensbilanz.

Wie messen Menschen Risiken? Warum investieren manche mehr als anderer? Warum ändern Leute ihre Strategie, wenn sich die Einsätze in einem Spiel ändern? Eine komplexe Umwelt zwingt uns, Entscheidungen zu treffen, die ein Verständnis (eine Bewertung) von Risiko voraussetzen. Auf der einen Seite haben viele Menschen ihr Bewusstsein für Risiken geschärft, auf der anderen Seite gehen viele mit Risiken mit einer Art kollektivem Schulterzucken um. Viele Risikoarten, denen man ausgesetzt ist, werden als solche nicht erkannt, zumindest aber nicht wahrgenommen. Denn Entscheidungen über zukünftige Ereignisse muss man trotz aller Unsicherheiten treffen. Manche lassen sich eher von ihrem Bauchgefühl leiten, andere dagegen bewerten ihre Optionen eher nüchtern kalkulierend, Vor- und Nachteile gegeneinander abwägend. Das ganze Leben ist zwangsläufig riskant. 

J. Becker Denkstudio

Immer mehr Daten sammeln ist schön und gut: nur nutzt es wenig, wenn mit den Daten nichts passiert. Ob nun Geschäftsdaten, Kundendaten, Inhalte aus dem Web, Kommunikation zwischen Maschinen oder soziale Netzwerke: über allem steht stets die richtige Frage: d.h. wer in großen Datenbergen gute Antworten finden will, braucht gute Fragen. Man kann heute zwar über bessere Software und Methoden verfügen, die Daten zu analysieren: doch auch gesteigerte Rechenleistungen entbinden nicht vom effektiven Informationsmanagement und der Kernfrage: was soll mit welchen klar umrissenen Zielen analysiert werden? Einerseits sitzt man mit jenen angesammelten Datenbergen auf einem Wissensschatz, hat aber andererseits manchmal eher nur unklare Vorstellungen darüber, wie dieses schwer durchschaubare Geflecht eigentlich zu heben und auszuschöpfen wäre

J. Becker Denkstudio

Ohnehin war klar, dass das Moore´sche Gesetz als eine Exponentialfunktion nicht in alle Ewigkeit so weiter fortgeschrieben werden konnte. Aber die Welt dreht sich trotzdem weiter, und zwar immer schneller: nie wieder wird sich die  Welt so langsam verändern wie heute So könnten mit den Erkenntnissen von Neurowissenschaften Fortschritte erzielt werden, die derzeit noch außerhalb der menschlichen Vorstellungskraft liegen. Vor dem Hintergrund der Tatsache, dass ein menschliches Gehirn (für manchmal unglaubliche Leistungen) nur gerade einmal zwanzig Watt verbraucht, um zu funktionieren. 

Die Macht der Algorithmen wächst: sie steuern unser Leben, stehen mit uns auf, gehen mit uns schlafen. Algorithmen machten die Handlungen eines jeden Einzelnen berechenbar und vorhersagbar. Faszinierende Computerprogramme, gespeist mit neuesten wissenschaftlichen Erkenntnissen,  könnten, so propagieren viele Software-Gurus, einfach nicht irren: schon gar nicht im Vergleich zu den Beschränkungen eines menschlichen Gehirns. Menschen würden wie Marionetten an den Fäden des Algorithmus in den Fängen der Manipulierbarkeit hängen: nicht mehr der Einzelne könne entscheiden, sondern nur noch ein gefühlloser Algorithmus. Abseits von aller Sachproblematik ist damit ein Knackpunkt angesprochen: die Gefühlswelt des Menschen

J. Becker Denkstudio

Auch ein noch so gescheiter und mit Daten vollgestopfter Algorithmus müsste wohl eher ratlos vor den Menschen innewohnenden Gefühlsschwankungen stehen und dann mit dem Datensammeln von vorne beginnen: quasi ein RESET des Algorithmus. Nur wer ohne Vorbehalte akzeptiert, dass er sich vorhersehbar verhält, wird auch vorhersehbar handeln. Nur wer daran glaubt, dass eine anonyme Datenanalysemaschine besser weiß, was für ihn gut ist, verzichtet auf eigene Entscheidungen, auf Freiheit und selbstbestimmtes Handeln. Freies Denken, menschliche Unvollkommenheit und Gefühlswelten  können daher als wirksame Schutzmechanismen gegen die anonyme Macht der Algorithmen funktionieren. Dies ist umso dringender ein Gebot der Stunde, als durch anonyme Algorithmen, vielleicht zunächst nur unbemerkt, ein sich destotrotz dynamisch entwickelnder sozialer Druck aufgebaut wird: jede Interaktion (und sei sie auch noch so kritisch) wird als wertvoller Input zur weiteren Perfektion des Systems erfasst und aufgezeichnet. Alle Versuche, den Mustern der Algorithmen entgegenzuwirken, werden ausgewertet und für neue Algorithmen verwendet. Niemand weiß, welche Instanz an den Reglern der Algorithmen sitzt, man kennt weder Motive noch hat man Einfluss auf sie. Die größten Gefahren, die aus solcher Erkenntnis der Ohnmacht entstehen, lauern in den Wahrscheinlichkeiten einer zunehmenden Selbstzensur

Big Data bedeutet nicht automatisch einen Zuwachs von Wissen und Erkenntnis. Viele verbinden mit Big Data, dass nunmehr Computer allein auf sich gestellt alles prognostizieren könnten. Computer selbst verstehen aber wenig oder nichts von der zu analysierenden Sache. Dieser Tatbestand wird auch nicht dadurch geheilt, dass Computer so lange zum Korrelieren und Clustern gezwungen werden, bis dabei etwas statistisch Signifikantes herumkommt. Unternehmen sitzen, auch ohne dem Google-Geschäftsmodell anheim gefallen zu sein, trotzdem auf ganzen Bergen von Daten. Solche Ansammlungen sind aber noch keine Gewähr dafür, genau zu wissen, was man weiß: das Konzept der Wissensbilanz lässt grüßen. Mit Hilfe von ungeheuren Rechenleistungen lassen sich zwar beliebig Korrelationen finden: Computer alleine können aber oft die zugrunde liegende Datenqualität nicht erkennen.

J. Becker Denkstudio

Der alte Spruch aus dem Beginn des Computerzeitalters vom „Garbage in – garbage out“ hat nach wie vor seine Gültigkeit: sinnfrei gesammelte Daten sind meistens unsauber oder inkonsistent und können im unbehandelten Zustand leicht zu falschen und/oder irreführenden Ergebnissen führen. Ergänzend ist die Frage zu stellen, ob einfachere Methoden (vieles basiert auf der relativ simplen Methode der Durchschnitt-Rechnung) nicht auch kompliziertere Methoden schlagen können: einfache Methoden haben in jedem Fall den Vorteil, gegen strukturelle Veränderungen robuster zu sein. Vielleicht ist es trotz allem Big Data noch nicht altmodisch, gründlich nachzudenken, auf Sachkunde und Erfahrung zu setzen, Fragen zu stellen, Überlegungen anzustellen, Überlegungen zu strukturieren, um aus der schieren Datenflut wirklich benötigtes Wissen herauszufiltern

Es werden immer mehr geschäftlich relevante Daten produziert und analysiert. Business Intelligence generiert vor allem Basisinformationen für zukunftsorientierte Prognosen und Planungen. Mögliche Gefahr: Auswertungen immer größerer Datenmengen bringen nur abnehmende Zusatzerkenntnisse und verwässern eine bereits mühsam erarbeitete Wissensessenz. Die unablässige Suche nach immer mehr Informationen versperrt den Blick für das, was wirklich wichtig ist. Oft ist weniger mehr. Bei der einseitigen Ausrichtung auf „harte“ Key Performance Indikatoren (KPI), gerät nur allzu leicht das eigentliche Management der „weichen“, qualitativen Erfolgsfaktoren in den Hintergrund. Die Jagd nach immer mehr Information ist manchmal nur der Vorwand, Entscheidungen aufzuschieben. Man gerät in eine Endlosschleife.

Auch wenn bereits die relevanten Fakten auf dem Tisch liegen und man bereits in einem Wust der Irrelevanz unterzugehen droht, werden vielleicht noch neue Arbeitskreise gebildet oder Gutachten eingeholt. Der Informationsflut droht eine Informationsverschmutzung im immer undurchsichtigeren Informationsdschungel. Ein Zuviel an Informationsmenge suggeriert leicht eine Sicherheit, die es so gar nicht gibt, nicht geben kann. Für die Entscheidungsfindung werden zunehmend erfolgskritische Informationen auf Basis relevanter Kennzahlen eingefordert. Auch kleinere Unternehmen müssen im heutigen Wettbewerbsumfeld in der Lage sein, unterschiedliche Datenquellen zeitnah zu analysieren und strategisch nutzbar zu machen. Business Intelligence ist ein wirksames Gegenmittel gegen ungebremste Informationssammelwut

J. Becker Denkstudio

Der Schlüsselfaktor für die Zukunft ist ein proaktives Change Management, d.h. die Bereitschaft zur Veränderung von Spielregeln. Dazu kommt die Qualität der Umsetzung durch eine gezielte Entwicklung der inneren Schlagkraft des Unternehmens in Menschen bzw. deren Fähigkeiten und abgeleitet daraus in Strukturen, Systeme und Prozesse. Es genügt nicht, nur besser zu sein: ohne herausragende Antizipations- und Reaktionsfähigkeit ist vieles fraglich. Vielmehr müssen die Grundrichtungen und Konzepte mit dem festen Willen zur positiven Veränderung (nicht nur zur Verbesserung!) gezielt verfolgt und mit gestalterischem Denken genutzt werden. 

Die Produktzyklen haben sich verkürzt, die Wertschöpfungsketten werden immer vernetzter. Ziele sind u.a. Verankerung der schnellen Leistungsbereitschaft des Unternehmens, Suche nach zeitorientierten Wettbewerbsfaktoren für die Planungsunterstützung, organisatorische Planung hin zu beweglichen und am Markt direkt messbaren Leistungseinheiten, Vereinfachung der Planungs- und Konsensprozesse auf der Entscheidungsebene, Verkürzung der Zyklen für Produkt- und Verfahrensinnovationen, Flexibilisierung der Produktion, Konzentration auf Leistungsschwerpunkte

Die allgemeine Entwicklung ist gekennzeichnet durch weltweite Vernetzung durch Massenmedien, Image und Kommunikation als Erfolgsfaktoren, zunehmende Veränderungsgeschwindigkeit, Potentialausschöpfung über schnelle Kommunikation, Schlüsselrolle der Medien für Unternehmensperspektiven. Die Entwicklung neuer Informationstechniken hat unsere Welt schneller gemacht, was zeitnahe Anpassungen erfordert. Aus dieser Entwicklung folgt Zukunftsorientierung: der rein vergangenheitsorientierte Umgang mit Steuerungsinformationen bietet keine ausreichende Basis für die Zukunftssicherung. Komplexitätsreduktion: erfordert aktive Unterstützung durch Analyseprozesse. Szenarien: die Fähigkeit, alternative Szenarien interaktiv zu modellieren, ermöglicht die Simulation von optionalen Zukunftsstrategien. Soft Facts: Neben Kennzahlen ist auch die Integration von „weichen“ Informationen notwendig. Volatilität des Umfeldes als Herausforderung: Nicht nur in vergangenheitsbezogenen Daten denken, sondern Szenario- und Sensitivitätsanalysen nutzen. Nicht das Erkennen von Veränderungen, sondern die hierauf zu treffenden Entscheidungen und vor allem deren zu langsames Umsetzen können zum Problem werden. Das Hüten einer immer weiter verfeinerten Controlling-Toolbox hilft nicht, wenn nicht gleichzeitig Status quo, Geschäftsmodell und Instrumente ständig hinterfragt und überdacht werden.

Nicht unsere „Boden“Schätze sondern unsere „Kopf“schätze werden über die Sicherung unseres Wohlstandes bestimmen: Wissen bestimmt in zunehmendem Maß den Wert unserer Produkte am Markt und hierüber den Handlungsspielraum unserer Wirtschaft für die Zukunft. Wissen macht sicher, Wissen ist Macht, Wissen zu Geld machen, Wissen ist Zukunft und was sonst noch alles, was man immer wieder zu hören bekommt. Warum ist dies alles so wahr, aber unsere Wirklichkeit so völlig anders? Das Nahziel ist erreicht, wenn kleine, mittlere und insbesondere wissensintensive Unternehmen sich im eigenen Bereich darauf besinnen, welches Wissen sie insbesondere zur Einschätzung von Risiken und Vermeidung von Krisen benötigen und wie sie dieses Wissen mit hohem Sicherheitsstandard aus verfügbaren Daten und Informationen überleiten und herstellen können. Das Augenmerk richtet sich auf Unterschiede und Problemübergänge zwischen Informationen und Wissen sowie auf die Verknüpfungspunkte zwischen Data Mining und Wissensbilanz. Ohne qualifiziertes Wissen, d.h. einen stetig ablaufenden Umwandlungsprozess der Daten zu Informationen und diese wiederum zu Wissen wäre auch eine noch so professionell entwickelte Wissensbilanz kaum mehr als ein Fluss ohne Wasser. Je qualifizierter und nachhaltiger eine Wissensbilanz mit ihrem Zukunfts-Rohstoff „Wissen“ versorgt werden kann, desto größer kann der mit ihr erzielbare Wirkungsgrad sein. Data Mining ist dabei nur einer unter außerdem noch mehreren anderen Zubringern.

J. Becker Denkstudio

Daten sind für sich gesehen zunächst weder schlecht noch gut: alles hängt davon ab, was man aus ihnen macht und wie man sie verwendet. Daten sind auch noch keine Informationen und Informationen sind auch noch kein Wissen. Will man etwas Gutes tun, muss man hierfür oft auch Daten haben und auswerten können: das ist in der Medizin und in vielen anderen Lebensbereichen so. Wenn Daten das Erdöl des 21. Jahrhunderts sind, darf man mit diesen genauso wenig verschwenderisch umgehen, sondern muss ihre Potenziale ausschöpfen. In Daten liegen noch viele ungehobene Schätze. Auch Data Mining hat dazu beigetragen, die Wünsche von Verbrauchern zu erfahren und Kunden besser zu verstehen. Vor allem kommt es darauf an, nicht nur den ökonomischen Interessen zu folgen, sondern unabhängig hiervon mögliche Gefahren und Risiken ungebremster Datensammlungen zu identifizieren und eine ergebnisoffene Abwägung von Kosten und Nutzen, von Stärken und Schwächen sowie von Risiken und Chancen vorzunehmen. 

Marktwissen und Fachkenntnis müssen in einem schnelllebigen Marktumfeld mit kompetenten Analysen unterstützt werden können. Denn nur dies ermöglicht: strategische Entscheidungen auf Basis aktueller und maßgeschneideter Informationen treffen zu können. Datenanalyse und individualisierte Informationsgenerierung spielen eine immer bedeutsamere Rolle: die flexible Generierungsmöglichkeit für entscheidungsrelevante Ergebnisinformationen sind ein immer wichtigerer Bestandteil erfolgreichen Handelns. Die besten Analysen verlieren jedoch an Wert, wenn ihre Aussagen nicht umgesetzt werden können. Dazu müssen Daten aus verschiedenen Quellen zusammengeführt und angepasst werden, mit diesen Daten situationsspezifische Berichte generiert werden, vertiefte statistische Analysen erstellt werden, Reports, Analysen auch aktuell mit externen Zusatzinformationen angereichert werden. Die Bildung und Auswertung von Kennzahlen setzt zunächst voraus, dass man sich der Grenzen ihrer Aussagefähigkeit bewusst ist. So darf nicht übersehen werden, dass Kennzahlen in ihrer mathematischen Formalisierung oft statisch sind und die Dynamik ablaufender Prozesse nicht immer genau zeitnah abbilden. Nicht aus dem Auge verloren werden sollte, dass vergangenheitsbezogene Kennzahlen nur bedingte Aussagen über die Gegenwart und noch weniger Aussagen über die Zukunft zulassen, statische Kennzahlen nur stichtagsbezogene Situationen widerspiegeln und damit nicht Bewegungsabläufe über Zeiträume erfassen können. Kennzahlen dürfen nicht isoliert interpretiert werden, sondern müssen sich einer bestimmten Systematik  zuordnen lassen. Integrierte Kennzahlensysteme sind immer Mittel-Zweck-Beziehungen, die aus einem übergeordneten Zielsystem abzuleiten sind. Das wichtigste Element der Kennzahl bleibt ihr Informationscharakter, um auch komplizierte Tatbestände in konzentrierter Form quantifizieren zu können. Die rechnerische Kennzahlenzerlegung wird erst dann fruchtbringend, wenn sie zu Kennzahlenbündeln führt, die vorhandene Informationen sinnvoll ordnen.  Entscheidend ist, dass man nicht einer Kennzahlengläubigkeit verfällt und ihnen nicht bei allen Entscheidungen nur noch sklavisch folgt. Führungskompetenz bemisst sich nicht allein nach Umsatz und Gewinn, die Kompetenz eines Trainers nicht allein nach dem Tabellenstand seiner Mannschaft. Nur allzu leicht werden qualitative Aspekte als irrelevant ausgeklammert, da man sie nicht in einem Zahlengerüst bis auf die Nachkommastelle genau quantifizieren kann. 

Gerade bei komplizierten Sachverhalten und Entscheidungssituationen kommt es manchmal auf diese qualitativen Aspekte an. Werden bei der Entwicklung von immer ausgefeilteren Kennzahlen bei dem Wunsch nach Komplexitätsreduktion diese qualitativen Unwägbarkeiten ausgeblendet werden, können Entscheidungen in die Irre führen. Entscheidungen haben eben oft ein schwierigeres Umfeld als ein Cockpit mit grünen, gelben und roten Lämpchen. Es ist ein Zeichen guter Entscheider, dass sie sich zwar der immer raffinierteren Kennzahlentools zu bedienen wissen, neben allen Zahlen und Daten aber trotzdem ein hohes Maß qualitativer Komponenten einbeziehen. Intellektuelle Anstrengung und Kompetenz bedeuten, alle Elemente, d.h. auch und gerade die nicht quantifizierbaren, in Entscheidungen einfließen zu lassen. Bauchentscheidungen und Kennzahlenentscheidungen sind keine sich ausschließende sondern sich ergänzende Erfolgselemente.

Kritische Risikoschwellen

 Unterscheidungsmerkmale sind beispielsweise: interne vs externe Risiken, potentielle/ verdeckt vorhandene vs aktuelle/offen zutage tretende Risiken oder beeinflussbare vs nicht beeinflussbare Risiken. Oft sind es gerade jene außerhalb des eigenen Geschäftsbereichs liegende Risikoeinflüsse wie beispielsweise wirtschaftspolitische, sozialpolitische, soziologische und demographische Daten, die neben dem internen Erfolgspotenzial den Gesamterfolg wesentlich mitbestimmen und den eigentlich vorhandenen Handlungsspielraum festlegen. Mit Hilfe von Risikoanalysen können vorausblickende Sicherheitskonzepte entwickelt werden. Das Konzept hierfür lautet: Risiken erkennen, Ursachen und Wahrscheinlichkeiten bewerten, Sicherheitsinstrumente planen, Kosten-/ Nutzen analysieren