Glossar
A wie AaaS (Analytics as a Service)
A wie AaaS (Analytics as a Service)
Der Begriff „Analytics as a Service“ (AaaS) beschreibt die Bereitstellung von Software zur Analyse von Geschäftsprozessen mithilfe von Web-Technologien. AaaS ist ein Service des →Cloud-Computing und bietet Unternehmen eine Alternative zu internen Ressourcen, um Analyseprozesse durchzuführen. Business Analytics als Serviceleistungen wird für Unternehmen immer interessanter, da der Aufbau und die Implementierung interner Analyseprozesse ein arbeits- und kostenintensiver Prozess werden kann. Je nach Umfang und Komplexität der durchzuführenden Analysen benötigen Unternehmen ggf. deutlich mehr Server und andere Arten von Hardware und zwangsläufig mehr Mitarbeiter im IT-Bereich und je Unternehmensstruktur im Controlling oder im Business Analytics. Dem gegenüber gewährt ein Anbieter von Analytics-as-a-Service gegen eine monatliche Gebühr Unternehmen den Zugriff auf eine Remote-Analyseplattform.
A wie A/B-Testing
Das A/B-Testing ist eine Methode, mit der zwei Varianten einer Sache miteinander verglichen werden um festzustellen, welche effizienter ist oder die bessere Performance erzielt. Die auch als Split-Testing bekannte Methode wird häufig im Zusammenhang mit dem Vergleich einer Website oder App genannt, allerdings besteht diese schon länger als das Internet. Der britische Biologe und Statistiker Ronald Fisher entwickelte diese Methode mithilfe der Mathematik in den 1920-er Jahre und legte den Grundstein, um mindestens zwei verschiedene Erfahrungen wissenschaftlich zu untersuchen. Fishers Methode wurde in vielen Branchen angewendet u. a. in der Auswertung von klinischen Studien. In den 1960-er Jahren wurde die Methode im Marketing aufgegriffen. Das A/B-Testing, wie es heute bekannt ist, existiert allerdings erst seit den 1990-er Jahren und war vor allem im Direktmarketing eine geschätzte Methode. Die beiden Varianten werden A und B genannt und den Nutzern nach dem Zufallsprinzip angezeigt. Ein Teil der Nutzer gelangt zur ersten Variante, ein anderer Teil zur zweiten. Mittels einer statistischen Analyse wird die Effizienz von Version A und Version B hinsichtlich verschiedener Indikatoren wie z. B. der Conversion Rate getestet. Somit kann schon in der Testphase ermittelt werden, welche Version z. B. zu den meisten Klicks, Registrierungen, Abonnements, Käufen und dgl. führt, um darauf eine gezielte Marketingstrategie zu entwickeln. Aufgrund der technologischen Entwicklung gibt es heute spezielle A/B-Testing-Tools für die Durchführung und Auswertung solcher Tests und Indikatoren.
Es gibt verschiedene Arten vom A/B-Testing. Beim klassischen A/B-Test werden den Nutzern zwei oder mehrere Varianten (Dummy) einer Seite gezeigt und wie oben erwähnt verglichen. Beim Split-Test oder Weiterleitungstest wird der Traffic an eine andere oder mehrere andere URLs weitergeleitet und beim →multivariaten Test (MVT) wird gemessen, wie sich mehrere veränderte Elemente auf ein und derselben Seite auswirken. Dies können grafische Elemente sein wie z. B. einzelne Bilder oder das gesamte Design, Schriftfarbe oder -größe, Fotos oder Banner und dgl., aber auch Inhalte. Mit diesem Test wird überprüft, welche Kombination die beste Leistung erzielt.
A wie A/B/N-Testing
A/B/N-Testing ist ein erweitertes →A/B-Testing. Während beim herkömmlichen A/B-Testing zwei Versionen einer Sache miteinander verglichen und getestet werden, bezieht sich die Variable N auf mehr als zwei Versionen, also von der zweiten Version bis zur „n-ten“ Version.
A wie Accelerator
Ein Accelerator ist ein systematisches Aufbauprogramm für →Startups und beinhaltet die professionelle Betreuung und Unterstützung von jungen Unternehmen. Neben der rein finanziellen Unterstützung enthalten Accelerator-Programme weitere Komponenten wie z. B. den Zugang zu Netzwerken, das Bereitstellen von Ressourcen, Infrastruktur und Kompetenzen. Hinzu kommt ein professionelles Mentoring-Programm und ein gezieltes Expertencoaching. Alle Maßnahmen konzentrieren sich auf die Skalierung, Optimierung und Beschleunigung des Geschäftsmodells und darauf, die Markteinführung eines →Minimum Viable Products (MVP) mit möglichst geringen Investitionen zu beschleunigen. Dies geschieht in der Regel in einem späteren Entwicklungsstadium, in dem ein Startup seinen bevorstehenden Markterfolg und ein Wachstumspotenzial über einen definierten Zeitraum nachweisen muss. Auch wenn Accelerator- und Inkubator-Programme einige Gemeinsamkeiten und Überschneidungen aufweisen und oft synonym genannt werden, gibt es feine Unterschiede. Diese liegen im Alter der Unternehmen und dem Entwicklungsstand der Geschäftsidee. Ein Accelerator verfolgt in der Regel das Ziel, das Wachstum eines bereits vorhandenen Geschäftsmodells zu beschleunigen. Bei einem →Inkubator dagegen steht vor allem die Entwicklung einer Geschäftsidee im Vordergrund, weshalb er oft als „Brutkasten“ bezeichnet wird. Der Accelerator dagegen ist als eine Art „Wachstumsbeschleuniger“ zu verstehen. Als Gegenleistung für die Unterstützung und Betreuung müssen Startups in der Regel Geschäftsanteile an ihrem Unternehmen abgeben. Die Dauer eines Accelerator-Programms ist in den meisten Fällen auf drei bis sechs Monate ausgelegt.
A wie Additive Fertigung
→3D-Druck
A wie Affective Computing
Affective Computing steht im Bereich der künstlichen Intelligenz für das Sammeln von Daten aus Mimik und Gestik, um menschliche Emotionen zu messen. Möglich wird das Sammeln der Emotionen, wie z. B. Muskelspannung und -entspannung, Körperhaltung, Herzfrequenz, Pupillenerweiterung oder Körpertemperatur, durch Sensoren, Kameras, Deep Learning und Big Data. Affective Computing, auch bekannt als Emotion Artificial Intelligence, soll dazu beitragen, die Interaktion mit Maschinen und künstlicher Intelligenz zu humanisieren. Die Potenziale sind vielfältig. In allen Bereichen des Lebens können sich „emotionale“ Maschinen optimal auf Menschen in einer individuellen Situation einstellen und die Interaktion mit diesen verbessern. Affective Computing wird somit die Lücke zwischen menschlicher Emotion und Maschine noch weiter schließen und so ermöglichen, dass Menschen zur Robotik und künstlicher Intelligenz mehr Vertrauen aufbauen werden.
A wie Agentur für Sprunginnovation (SPRIND)
Die Agentur für Sprunginnovation (kurz SPRIND) wurde 2019 vom Bundesministerium für Bildung und Forschung (BMBF) und dem Bundesministerium für Wirtschaft und Klimaschutz (BMWK) ins Leben gerufen. Ihre Aufgabe liegt in der finanziellen Förderung von →Sprunginnovationen und Ideen, die das Potenzial zur Sprunginnovation haben. Ziel ist es, hochinnovative Ideen zu identifizieren, zu unterstützen und zu beschleunigen und anschließend auf dem Markt zu etablieren. Hierzu wurde ein Netzwerk geschaffen, in dem Experten aus Wirtschaft und Wissenschaft zusammenarbeiten. Sie hat mit der US-amerikanischen →DARPA ein großes Vorbild und ein noch größeres Ziel: Deutschland wieder an die Weltspitze bahnbrechender Technologien und disruptiver Innovationen heranzuführen. Auch wenn SPRIND für Sprunginnovationen in Deutschland steht, ist es ein Anliegen der Agentur, die innovativsten Köpfe aus verschiedenen Ländern möglichst früh zusammenzubringen und international zu vernetzen. Einer der wichtigen Partner ist hierbei der →Europäische Innovationsrat (EIC), der Innovationen auf europäischer Ebene vorantreibt und somit die Wettbewerbsfähigkeit der Europäischen Union im globalen Wettbewerb um Schlüsseltechnologien unterstützt.
A wie Agiles Manifest
Das agile Manifest (im Original „Manifesto for Agile Software Development”) wurde 2001 von einer Gruppe renommierter Softwareentwickler formuliert. Es bildet das Fundament im agilen Projektmanagement, da Entwicklungsprojekte von Software eine hohe Komplexität aufweisen und die technologische Entwicklung sehr dynamisch verläuft. Außerdem brauchen diese Projekte viele unterschiedliche Kompetenzen und eine flexible Umsetzung. Zwangsläufig mussten agile Prinzipien in einer Branche entwickelt werden, die schon vor über 20 Jahren an die Grenzen linearer Wasserfall-Modelle gestoßen ist.
Das agile Manifest wird durch vier Leitsätze gebildet und stellt diese zur Verdeutlichung seiner Kernaussagen den herkömmlichen bzw. traditionellen Vorgehensmodellen gegenüber. „Wir erschließen bessere Wege, Software zu entwickeln, indem wir es selbst tun und anderen dabei helfen. Durch diese Tätigkeit haben wir diese Werte zu schätzen gelernt:
- Individuen und Interaktionen sind wichtiger als Prozesse und Werkzeuge.
- Funktionierende Software ist wichtiger als eine umfassende Dokumentation.
- Zusammenarbeit mit dem Kunden ist wichtiger als Vertragsverhandlung.
- Reagieren auf Veränderung ist wichtiger als das Befolgen eines Plans.“
Dies bedeutet, dass der Mensch im Fokus steht und der direkte Austausch untereinander wichtiger ist als Formalismen. Anders ausgedrückt: auch der beste Prozess kann ein persönliches Gespräch nicht ersetzen. Nicht ohne Grund organisieren sich agile Teams in gemeinsamen Räumlichkeiten, um eine enge Zusammenarbeit und pragmatische Kommunikation sicher zu stellen. Der zweite Leitsatz bringt die hohe Fokussierung auf Werte, Lösungen und Ergebnisse zum Ausdruck. Agile Teams suchen konkrete Lösungen und streben Arbeitsergebnisse an, anstatt sich mit aufwändigen Dokumentationen oder der Gestaltung von Präsentationen aufzuhalten. In herkömmlichen Organisationen mit klassischer Projektkultur werden nicht selten mehr Ressourcen in die Erstellung von Powerpoints verwendet, um Lenkungsausschüsse oder Entscheidungsgremien zu überzeugen als in die Erledigung der eigentlichen Projektaufgabe. Der Kunde hat in der Projektarbeit agiler Teams die zentrale Bedeutung, ist Teil des Prozesses und mit seinen Bedarfen und Bedürfnissen, Problemen und Wünschen quasi immanenter Teil des Teams. Ausgeprägtes Zielgruppenverständnis und Kundenempathie sowie regelmäßiger Austausch sind wichtiger als Formalien wie z. B. Verträge. Dies bedingt schon allein der dritte Leitsatz, da agile Teams sehr flexibel, dynamisch, adaptiv und iterativ arbeiten. Das schnelle und angemessene Reagieren auf Veränderungen ist wichtiger als das sture Befolgen eines statischen Plans. Häufig wird diese Eigenschaft als planlos, chaotisch, willkürlich oder sprunghaft ausgelegt, ohne zu erkennen, dass agile Teams in erster Linie auf ein Ziel fokussiert sind und auf dem Weg dahin von ihrem ursprünglichen Plan abweichen, wenn es sinnvoll und zielführend erscheint. Diese vier Leitsätze sind das Grundgerüst, das durch zwölf Prinzipien weiter konkretisiert und operationalisiert wird. Sie bilden den Handlungsrahmen für agile Teams.
- “Our highest priority is to satisfy the customer through early and continuous delivery of valuable software” (Unsere höchste Priorität ist es, den Kunden durch frühe und kontinuierliche Auslieferung wertvoller Software zufrieden zu stellen). Kunden werden nicht nur als Auftraggeber gesehen, sondern als Teil der Entwicklung. Infolgedessen werden sie aktiv und frühzeitig mit einbezogen, in dem sie in die Meilensteine und Arbeitsergebnisse mit eingebunden werden. Somit können mögliche Fehlentwicklungen rechtzeitig erkannt und gegengesteuert werden.
- “Welcome changing requirements, even late in development. Agile processes harness change for the customer’s competitive advantage“ (Selbst späte Anforderungsänderungen in der Entwicklung sind willkommen. Agile Prozesse nutzen Veränderungen zum Wettbewerbsvorteil des Kunden). Dieses Prinzip darf nicht falsch verstanden werden. Es geht nicht darum, Projekte nicht von Anfang an bis zum Ende durchzuplanen und Anforderungen willkürlich zu ändern. Das agile Manifest möchte starre Strukturen aufbrechen und ein stures Festhalten an einem ursprünglich verabschiedeten Vorgehen vermeiden. Neue Anforderungen durch ein Feedback von Kunden oder Marktveränderungen müssen bis zum Schluss möglich sein und sollen den Erfolg eines Projektes sicherstellen. Für die Projektkultur ist wichtig zu differenzieren, ob Änderungen zu einem späten Zeitpunkt unvorhersehbar waren oder auf eine unzureichende Planung oder schlechte Kommunikation zurück zu führen sind.
- „Deliver working software frequently, from a couple of weeks to a couple of months, with a preference to the shorter timescale“ (Liefere funktionierende Software regelmäßig innerhalb weniger Wochen oder Monate und bevorzuge dabei die kürzere Zeitspanne). Die Arbeit in kurzen Zeitintervallen ist ein Grundprinzip im agilen Projektmanagement und basiert auf der Erkenntnis, dass zu lange Planungsphasen Unsicherheit und Risiko erhöhen. Man bezeichnet dieses Phänomen auch als “Cone of uncertainty”. Hierbei hat sich die Regel bewährt: je unbekannter oder riskanter ein Projektziel ist, umso kürzer sollten die Intervalle angesetzt werden. Der zweite Teil, ein konkretes und funktionierendes Arbeitsergebnis abzuliefern, sollte selbstverständlich sein.
- „Business people and developers must work together daily throughout the project“ (Fachexperten und Entwickler müssen während des gesamten Prozesses eng zusammenarbeiten). Dieses Prinzip ist eine Spiegelung der Realität in herkömmlichen Organisationen, die oft linear und hintereinander gekoppelt agieren. Anforderungen werden vom internen Auftraggeber formuliert und im Anschluss durch einen internen oder externen Auftragnehmer umgesetzt. Schließlich versteht der Auftraggeber etwas vom Business und der Auftragnehmer etwas von Software oder dgl. Jeder hat seine Kompetenzen und soll diese nach Zuständigkeiten einbringen. Agile Teams arbeiten so nicht. Für sie ist selbstverständlich, dass agile Teams interdisziplinär zusammen gesetzt sind und jeder Spezialist Teil des Projektteams sein muss, um gemeinsam ein lösungsorientiertes Ergebnis mit Mehrwert für den Kunden zu entwickeln.
- „Build projects around motivated individuals. Give them the environment and support they need, and trust them to get the job done” (Errichte Projekte rund um motivierte Menschen. Gib ihnen das Umfeld und die Unterstützung, die sie benötigen und vertraue darauf, dass sie die Aufgabe erledigen.“ Agile Teams sind überzeugt, dass Menschen autonom, kreativ und selbstorganisiert handeln. Deshalb setzen sich agile Teams auch nicht aus Menschen zusammen, die in ihren jeweiligen Fachabteilungen die höchste Kompetenz aufweisen, sondern hoch motiviert sind und ihren Handlungsspielraum kundenzentriert und im Sinne des Unternehmens ausüben. Dies funktioniert in erster Linie durch volles Vertrauen und Rückendeckung durch das Top-Management.
- „The most efficient and effective method of conveying information to and within a development team is face-to-face conversation“ (Die effizienteste und effektivste Methode, Informationen an und innerhalb eines Entwicklungsteams zu übermitteln, ist im Gespräch von Angesicht zu Angesicht). Offene, transparente und vor allem persönliche Kommunikation ist das wirkungsvollste Instrument. Nur so können sich agile Teams synchronisieren, nachhaltige Entscheidungen treffen und evtl. Spannungen klären bzw. Konflikte lösen.
- “Working software is the primary measure of progress“ (Funktionierende Software ist das wichtigste Fortschrittsmaß). Dies bedeutet, dass der Projektfortschritt auf Basis konkreter und vorzeigbarer Ergebnisse sowie durch Kundenfeedback zu bewerten ist. Theoretische Abhandlungen jeglicher Art gehören der Vergangenheit an. Jede Form von Ergebnissen, die eine Beurteilung des Projekterfolgs ermöglichen oder auch belegen, dass gewisse Annahmen ursprünglich nicht aufrechterhalten werden konnten oder Entscheidungen falsch waren, sind willkommen. Auch Learnings tragen dazu bei, zukünftig Ressourcen besser einzusetzen, Verschwendung zu vermeiden und Ergebnisse zu optimieren.
- „Agile processes promote sustainable development. The sponsors, developers, and users should be able to maintain a constant pace indefinitely” (Agile Prozesse fördern nachhaltige Entwicklung. Die Auftraggeber, Entwickler und Benutzer sollten ein gleichmäßiges Tempo auf unbegrenzte Zeit halten können). Kontinuität ist eine wichtige Voraussetzung, um agiles Arbeiten implementieren zu können. Agile Denk- und Arbeitsweise kann man nicht in einem mehrstündigen Workshop lernen. Man braucht ein aktives Projektcoaching, das regelmäßig stattfindet und situativ eingreift. Nur so können agile Werte entwickelt und agile Methoden implementiert werden. Dies geschieht durch kontinuierliches Ausprobieren und Anpassen, einen offenen Dialog und Selbstreflektion und vor allem die Bereitschaft, sich „konstruktiv zu reiben“ – immer im Sinne des Projekts und seiner Zielsetzung und -erreichung.
- „Continuous attention to technical excellence and good design enhances agility“ (Ständiges Augenmerk auf technische Exzellenz und gutes Design fördert Agilität). Technische Exzellenz meint im übertragenen Sinne die „Liebe zum Detail”. Ein durchstrukturiertes Projekt mit einem hohen Detaillierungsgrad minimiert das Auftreten von zu erwartenden Problemen oder Fehlern, reduziert das Kostenrisiko und vermeidet unnötiges Nacharbeiten, wodurch Motivation des Teams und Zufriedenheit des Kunden steigt. Ein fehlender Qualitätsanspruch führt gerade bei technischen Systemen zu exponentiell wachsenden “costs of ownership” bis zu dem Punkt, dass ein System neu entwickelt werden muss. Design hat im Kontext von Agilität mehrere Bedeutungen. Gestaltung, Struktur, Prozesse, Services, Produkte sowie Geschäftsmodelle müssen einfach und idealerweise intuitiv sein. Dies vermeidet Komplexität und Abhängigkeit.
- “Simplicity – the art of maximizing the amount of work not done – is essential (Einfachheit – die Kunst, die Menge nicht getaner Arbeit zu maximieren – ist essenziell). Für agile Teams geht es in erster Linie darum, dass ihr Ergebnis einen wirklichen und messbaren Mehrwert aus Sicht des Kunden hat. Qualität statt Quantität, nicht anders sein, sondern besser sind die Maxime im agilen Projektmanagement.
- „The best architectures, requirements, and designs emerge from self-organizing teams“ (Die besten Architekturen, Anforderungen und Entwürfe entstehen durch selbstorganisierte Teams). Damit agile Teams erfolgreich sein können, brauchen sie ein hohes Maß an gegenseitigem Vertrauen, eine positive Fehlerkultur und Konfliktbereitschaft. Denn nur wenn unterschiedliche Perspektiven, Erfahrungen und Expertise in einem heterogen Team einfließen, entstehen innovative Ideen mit einem hohen Potenzial, erfolgreich umgesetzt zu werden. Dazu brauchen agile Teams keinen Supervisor, Mentor oder Manager.
- „At regular intervals, the team reflects on how to become more effective, then tunes and adjusts its behavior accordingly“ (In regelmäßigen Abständen reflektiert das Team, wie es effektiver werden kann und passt sein Verhalten entsprechend an). Eine der Methodenkompetenzen von agilen Teams sind Retrospektiven. In fest definierten Abständen gibt es Manöverkritik, um die Zusammenarbeit kontinuierlich zu verbessern. Hierbei geht es selten um einzelne Mitglieder und immer um das Team. Diese Feedbacks sind Ausdruck über die Fehler- und Meeting-Kultur im Kleinen sowie Teams- und Unternehmenskultur im Großen.
A wie Agile Tool Cards
Agile Tool Cards sind ein von Brainbirds entwickeltes Karten-Set, das in der agilen Organisationsentwicklung eingesetzt werden kann. Auf 53 Karten werden praxisorientiert und sehr anschaulich die verschiedenen Themen aufbereitet, die für Transformation und Agilität entscheidend sind. Hierbei wird differenziert von der übergreifenden Ebene “Kultur & Mindset“ über agile „Methoden & Prozesse“ bis hin zu den „Werkzeugen & Techniken“, die ein schnelles und effizientes Arbeiten ermöglichen. Das Karten-Set unterstützt Fach- und Führungskräfte bei der Vermittlung und Anwendung dieser Themen – im Einzelcoaching, Teamtraining oder Anwendung in der gesamten Organisation. Jede Karte beinhaltet eine thematische Übersicht, eine genaue Beschreibung der Anwendung, Empfehlungen für Templates & Materialien sowie nützliche Tipps für die praktische Umsetzung der Konzepte. Zu den Themen gehören:
- Kultur & Mindset wie z. B. Entwicklung einer Unternehmenskultur, VUCA-Welt, Digitale Transformation, Agiles Mindset, Leadership & Management in der digitalen Arbeitswelt oder Customer Centricity
- Design Thinking wie z. B. Co-Creation, Prototyping und Testing, Personas oder Google Sprint
- Business Model Generation wie z. B. Entwicklung von neuen Geschäftsmodellen, Analyse und/oder Innovation bestehender Geschäftsmodelle, Business Model Canvas, Lean Canvas, Monetarisierung von Geschäftsmodellen oder Value Proposition
- Lean Startup wie z. B. Iterative Produktoptimierung, MVP (Minimum Viable Product), Produktentwicklung mit Hilfe der Build-Measure-Learn-Zyklen oder Hypothesen-Validierung mit Prototypen und Feedback-Sessions
- Scrum wie z. B. kurze iterative Sprints, erfolgreiche Projektdurchführung mit klaren Rollen und Kernelementen sowie strukturierte Umsetzung von Produkten und/oder Services
- Werkzeuge & Techniken wie z. B. Brainstorming-Methoden, analoges & digitales Prototyping, agile Projektmanagement-Techniken, Analyse-Tools sowie Räume & Materialien für agiles Arbeiten.
A wie Agilität
Agilität ist keine neue Funktionalität, auch wenn der Begriff erst in den letzten Jahren verstärkt aufgetreten ist. Der Ursprung kommt auch nicht aus der Softwareentwicklung, wie häufig angenommen wird. Der Begriff Agilität taucht bereits in der Systemtheorie von Organisationen auf, die in den 1950er-Jahren entwickelt wurde. Demnach beruht die Funktionsfähigkeit von Organisationen auf vier Bausteinen – dem so genannten AGIL-Schema:
- Adaption (Fähigkeit, auf sich verändernde äußere Bedingungen zu reagieren),
- Goal Attainment (Ziele definieren und verfolgen),
- Integration (Zusammenhalt (Kohäsion) und Inklusion (Einschluss) herstellen und absichern) sowie
- Latency (Beibehaltung grundlegender Ziele und Werte)
Agilität beschreibt somit die Fähigkeit einer Organisation, sowohl flexibel (im Sinne von reaktiv) als auch proaktiv zu handeln und hierbei von den sich immer schneller ändernden Rahmenbedingungen im unternehmerischen Umfeld zu antizipieren und initiativ zu werden, um notwendige Veränderungen einzuführen und sich wandelnden Märkten anzupassen. Agilität somit nur auf Flexibilität zu reduzieren, wie dies häufig vorgenommen wird, wäre zu kurz gedacht.
Seitdem wurde das Konzept der Agilität in drei Richtungen weiterentwickelt:
- Agiles Manufacturing, bei dem es um schnelle Produktentwicklung (Simultaneous Engineering), multifunktionale Teams und die kontinuierliche Verbesserung des Produktionsprozesses geht. Diesem Ansatz folgend basiert die Idee der Industrie 4.0: Prozesse werden unterbrochen und optimiert, Projekte wiederholt neu aufgesetzt, um neue Erkenntnisse mit einfließen zu lassen. Charakteristisch für agile Methoden ist ein iteratives Vorgehen.
- Agile Softwareentwicklung, bei der die Teams und Interaktionen den Prozessen und Tools übergeordnet sind. Eine funktionierende Software ist wichtiger als eine umfassende Dokumentation, die Zusammenarbeit mit dem Kunden wichtiger als vereinbarte Verträge, die flexible Reaktion auf Veränderung wichtiger als das Befolgen eines ursprünglichen Plans – ein Paradigmenwechsel für die meisten klassischen Industrieunternehmen. Die iterative Arbeitsweise ermöglicht Feedback und Korrektur. Eine der beliebtesten Methoden hierfür ist Scrum.
- Agile Organisationen sind die neueste Entwicklung. Sie beruhen auf Transparenz, Dialog, Vertrauen, Entscheidungsfreiheit und kurzen Wegen für Rückmeldungen. Wissen wird geteilt, Informationen werden offen weitergegeben, Fehler offen und konstruktiv angesprochen. Statussymbole und klassische Hierarchien entfallen. Mitarbeiter werden in die Personalplanung mit einbezogen und Mitarbeiterentwicklung erfolgt nicht nur auf Basis von Vorgaben, sondern auch durch „Peer Feedback“ aus den Teams. Die agile Organisation bezieht sich nicht nur auf Produktionsprozesse oder die Software-Entwicklung, sondern fokussiert die Transformation von Unternehmen.
Agilität unterscheidet vier zentrale Aspekte:
- Geschwindigkeit: Agile Organisationen müssen schnell und dynamisch reagieren.
- Anpassungsfähigkeit: Agile Organisationen müssen sich schnell an Veränderungen anpassen.
- Kundenzentriertheit: Agile Organisationen legen den Fokus auf die Bedürfnisse bzw. Bedarfe der Kundschaft. Kurze iterative Bearbeitungszyklen ermöglichen schnelles und punktuelles Reagieren auf Marktveränderungen und Kundenwünsche.
- Haltung: Agile Organisationen haben keine „Mitarbeitenden“, sondern ganzheitlich in Lösungen denkende Teammitglieder, die über ein agiles Mindset verfügen.
Um Agilität zu entwickeln und auszubauen, müssen die Rahmenbedingungen für agile Vorgehensweisen geschaffen werden, Ergebnisse müssen in den Mittelpunkt gestellt werden und nicht Prozesse, Strukturen und Hierarchien, die Unternehmenskultur muss Fehler erlauben, die Stärken der Teammitglieder müssen gefördert werden und ganz wichtig ist, Vertrauen unter den Menschen aufzubauen und ihnen Verantwortung und Freiräume zu geben.
A wie AIaaS (Artificial Intelligence-as-a-Service)
Artificial Intelligence as a Service (AIaaS) beschreibt ein Angebot, →künstliche Intelligenz an einen externen Dienstleister auszulagern. Kleinen und mittleren Unternehmen fehlen in der Regel die finanziellen und fachlichen Ressourcen, um eigene KI-Anwendungen zu entwickeln und zu implementieren. Daher greifen immer mehr Unternehmen auf Cloud-KI-Anbieter wie z. B. Microsoft Cognitive Services, Amazon Machine Learning, IBM oder Google Cloud Machine Learning zurück, die neben der Hardware auch entsprechende Entwicklungswerkzeuge für Artificial Intelligence (AI) auf →SaaS-Basis anbieten. Mit ihnen können schlüsselfertige KI-Applikationen entwickelt werden. Somit können sich Unternehmen die kostspielige Investition der erforderlichen Hard- und Software sowie Personal- und Wartungskosten für den Start der On-Premise-Cloud-KI sparen. Die oben genannten Cloud-KI-Anbieter legen ihren Schwerpunkt auf →Machine-Learning-as-a-Service. Ursächlich hierfür ist, dass maschinelles Lernen methodisch und technisch das am weitesten entwickelte Gebiet der Künstlichen Intelligenz ist. Mit dem „Deep Learning“ steht eine Implementierung eines künstlichen neuronalen Netzes zur Verfügung, mit dem Daten in Wissen verwandelt und Vorhersagemodelle etwa für →Predictive Analytics, Ausfallrisiken oder Kundenverhalten entwickelt werden können.
A wie AIDA
AIDA ist ein Akronym und steht für die Begriffe Attention (Aufmerksamkeit), Interest (Interesse), Desire (Verlangen) und Action (Handlung). Das AIDA-Modell (auch als AIDA-Formel oder AIDA-Prinzip bezeichnet) ist ein Stufenmodell zur Beschreibung der Werbewirkung im Marketing (Werbepsychologie). In dem von Elmo Lewis bereits im Jahr 1898 entwickelten Modell durchlaufen Konsumenten vier aufeinanderfolgende Phasen, bevor sie schlussendlich den Kauf eines Produktes oder einer Dienstleistung vollziehen.
In der ersten Phase der Marketingkommunikation geht es um die Gewinnung von Aufmerksamkeit bei der gewünschten Zielgruppe, was angesichts zunehmender Reizüberflutung und aktiver Ablehnung von Werbung immer schwieriger wird. Was früher durch auffällige Farben, freche Werbesprüche oder ungewöhnliche Bildmotive gelang, reicht heute immer weniger, um Aufmerksamkeit bei der Zielgruppe zu erzielen. Gelingt dies, geht es in der nächste Phase darum, die gewonnene Aufmerksamkeit zu nutzen, um tiefer gehendes Interesse an der Werbebotschaft zu wecken. In dieser Phase geht es um die Auseinandersetzung der potentiellen Kundschaft mit der jeweiligen Werbebotschaft, um die Marke, das Produkt oder die Dienstleistung nachhaltig im Gedächtnis des Konsumenten zu verankern. Entsteht daraus ein Verlangen des Kunden ist die dritte Stufe des Werbewirkungsmodells erreicht. Aus dem geweckten Interesse des Kunden entsteht das Verlangen, das umworbene Angebot zu besitzen, also konkret zu erwerben. Hierfür wird ein gezieltes Werbeversprechen adressiert, das auf der emotionalen und/oder kognitiven Ebene stattfindet. In der letzten Phase des AIDA-Modells steht die Handlungsaufforderung zum Erwerb des Produkts oder der Dienstleistung, auf neudeutsch auch als „Call-to-Action“ bezeichnet. Erst mit Abschluss des Kaufs ist das Stufenmodell abgeschlossen.
Im Laufe der Jahre entstanden zahlreiche Modifikationen des Werbewirkungsmodells, zum Teil aus Widersprüchen und zum anderen aufgrund der Weiterentwicklung der Märkte und der hinzugekommenen Absatzkanäle. Kritiker sehen das Interesse nicht als Folge, sondern eher als Voraussetzung von Aufmerksamkeit (IADA). Erweiterungen finden in erster Linie durch das Hinzufügen von Wirkungsstufen z. B. „gain confidence“ (AIDCA), „satisfaction“ (AIDAS), „recommendation“ (AIDAR) oder „conviction“ (AIDCAS) statt. Die Abkürzung I-AIDA bekommt im Online-Marketing zunehmend Bedeutung, da die Intention z. B. durch Eingabe des Begriffs in einer Suchmaschine dem typischen AIDA-Modell vorausgeht. Alle Werbewirkungsmodelle haben gemeinsam, dass der umworbene potenzielle Käufer vom ersten Stimulus bis zum Kaufabschluss zwischen mindestens 4 und bis maximal 10 Phasen durchläuft. Diese Wirkungsstufen bilden eine Hierarchie der Effekte von Ursache und Wirkung. Vom vierstufigen AIDA-Modell weicht das CAB-Modell ab. CAB steht für Cognition (Wahrnehmung), Affect (Emotion/Effekt) und Behaviour (Verhalten). Hinter diesen drei Buchstaben steckt ein komprimiertes Werbewirkungsmodell, das von AIDA beeinflusst ist, den Prozess bis zum Abschluss aber anders beschreibt. Die DAGMAR-Formel ist ein der AIDA-Formel ähnliches Modell, das aber den Fokus stärker auf Wirkung und Erfolg der Werbung lenkt. DAGMAR steht für Defining Advertising Goals for Measured Advertising Results und beschreibt zum einen das Ziel der Werbung, aber stellt zugleich ihre Bedeutung als Kommunikationsmedium heraus. Infolgedessen steht DAGMAR nicht allein für den Verkaufsprozess, sondern auch für die gesamte Marketingkommunikation, so dass dieses Modell zu einer festen Größe im Marketing geworden ist.
Die Einfachheit des AIDA-Modells stößt in Zeiten volatiler Märkte und crossmedialer Kommunikations- und Distributionskanäle zunehmend auf Kritik. Die lineare und starr wirkende Abfolge der einzelnen Phasen vernachlässigt die zunehmend dynamischen und variierenden Zusammenhänge von Marketingbotschaften und -absichten im digitalen Zeitalter. Es geht davon aus, dass mit jedem gezielten Reiz eine konkrete Reaktion zustande kommt, was bekanntlich heute nicht mehr der Fall sein muss. Eine weitere Kritik besteht darin, dass im Mittelpunkt des Modells der prozessuale Weg zum Abschluss ist. Der Kunde kommt nur als handelndes Ziel der Begierde vor. In Zeiten von Customer Centricity und Customer Experience bleiben Dialog, Interaktion und Erlebnis auf der Strecke und werden im Rahmen moderner Verkaufspsychologie vernachlässigt.
A wie Akkumulationsstrategie
→Sprinkler-Strategie
A wie Algorithmisierung
Die →Digitalisierung als wohl größter →Megatrend verändert alle Bereiche der Gesellschaft und führt zur Neustrukturierung der gesellschaftlichen, technologischen und sozialen Strukturen. Durch Digitalisierung und Automatisierung bekommen Daten einen bislang nicht gekannten Wert. Algorithmen prägen bereits heute in großem Maß alle gesellschaftlichen Bereiche. Der Trend der Algorithmisierung ist einer der Megatrends und wohl eine der bedeutendsten Entwicklungen in der Data Ära. Durch intelligente Datenformeln lernt die Umgebung auf alle erdenklichen Situationen zu reagieren und Entscheidungen zu fällen. Ob dies rückblickend Fluch oder Segen gewesen sein wird, bleibt wie bei allen Innovationen abzuwarten und ist eine Ermessens- und Abwägungssache. Smarte Formeln leben davon, dass sie mit Daten versorgt werden – und Mensch und Maschine liefert diese bewusst und unbewusst permanent, während sie sich durch die digitale (und zum Teil auch analoge) Welt bewegen. Je mehr Algorithmen über Abläufe, Entscheidungen und Prozesse sowie deren Auswirkungen wissen, desto stärker können sie auf ihr Umfeld reagieren und dieses beeinflussen, manipulieren, optimieren, entlasten und gestalten. Durch die zunehmende Vernetzung der durchstrukturierten Algorithmen im Zusammenspiel mit →künstlicher Intelligenz ergeben sich ungeahnte Möglichkeiten in einer digitalisierten Welt von morgen. Algorithmen nehmen dem Menschen bereits heute unzählige Entscheidungen ab. Der Fokus der Algorithmisierung liegt allerdings nicht mehr darauf, Entscheidungen zu treffen, wenn sie anstehen, sondern smarte Datenformeln innovativ zu nutzen, um zukünftige Entscheidungen zu ermöglichen. Durch den Einsatz von Sensorik werden Computer zunehmend „feinfühliger“ und durch Machine Learning schneller und zunehmend intelligenter. Längst macht der sich selbst optimierende Algorithmus die Runde und wird über die Frage entscheiden, wie viel Annehmlichkeiten auf der einen Seite wie viel Freiheit und Unabhängigkeit auf der anderen Seite noch zulassen wird. Der Umgang mit den →Big Five zeigt, dass der Mensch in jeder Sekunde seines Handelns Daten hinterlässt und somit transparent wird – sei es durch Bewegungsprofile, Bezahldaten, Such-, Informations-, Nutzungs- und Kommunikationsverhalten. Gleichzeitig helfen Algorithmen in einer Welt der Daten- und Informationsüberflutung nicht unterzugehen und den Menschen zu entlasten und seinen Alltag zu optimieren. Der Umgang mit diesen Möglichkeiten wird letztendlich darüber entscheiden, ob die Algorithmisierung Fluch oder Segen sein wird.
A wie Arbeitsplatz der Zukunft
Begriffe wie Arbeitsplatz der Zukunft, Digital Workplace, New Work oder Mobile Office usw. werden häufig synonym verwendet. Zum Teil berechtigt, da die Grenzen fließend und die dahinterliegenden Beschreibungen nahezu identisch sind, zum Teil völlig unberechtigt, da mit jedem einzelnen Begriff andere Trends und Entwicklungen gemeint sind. In einem Punkt sind sich allerdings alle Zukunftsforscher einig: Daten werden die Arbeitsplätze von morgen bestimmen. In Zeiten von Big Data müssen Daten schneller und effizienter analysiert und verarbeitet werden. Neben Digitalisierung wird auch Automatisierung eine immer größere Rolle spielen. Am digitalen Arbeitsplatz führt kein Weg mehr vorbei. Coronabedingt haben Unternehmen erkannt, dass digitale Arbeitsplätze und damit verbunden agile Arbeitsmethoden mehr Mobilität und Flexibilität gebracht haben und Prozesse schneller und schlanker geworden sind.
Der „Arbeitsplatz der Zukunft“ ist allerdings kein Produkt, das ein Unternehmen in kurzer Zeit einführen kann, sondern eine tiefgreifende Veränderung der Unternehmenskultur mit Auswirkungen auf Arbeitsmethoden und -modelle, kollaborative Zusammenarbeit nach innen und außen, technologische Infrastruktur sowie Unternehmensstrukturen und Geschäftsprozesse. Je nach Perspektive des Einzelnen: Während Arbeitgeber mit der Digitalisierung des Arbeitsplatzes in erster Linie Mobilität, Technologie und höhere Effizienz assoziieren, verbinden Arbeitnehmer dagegen hauptsächlich einen Wandel der Arbeitszeitmodelle (z. B. Homeoffice, remote work, Co-working) sowie flexiblere Arbeitsmethoden und mehr Gestaltungsspielraum. Unternehmen sind gefordert, Arbeitsplatz- und Mobilitätskonzepte für die gesamte Organisation zu entwickeln und hierbei zu berücksichtigen, dass auch der Arbeitsplatz ihrer Kunden zunehmend digital wird.
Deshalb sind feste Büroarbeitsplätze ein Auslaufmodell, auch dann, wenn in der Post-Corona-Zeit Kontaktbeschränkungen wieder komplett aufgehoben sind. Home- und Mobileoffice sowie virtuelle Meetings bestimmen den Arbeitsplatz der Zukunft. Angesichts der Angebote an Desk Sharing oder Co-Working Spaces kann jeder Mitarbeiter jederzeit und an jedem Ort arbeiten. Ein Digital Workplace verändert grundlegend die Arbeitsweise für Unternehmen und ihrer Organisationen. Neben der Eigenorganisation des Mitarbeiters müssen Unternehmen die Sicherheit dezentraler Archivierung, des Informations- und Datenaustausches sowie den standort- und geräteunabhängigen Zugriff sicherstellen.
Je nach Branche und Tätigkeit werden digitale Prozesse wie Automation oder auch künstliche oder kontextualisierte Intelligenz Tätigkeiten übernehmen, so dass Veränderungen auch Wegfall bestehender und die Schaffung neuer Arbeitsplätze bedeutet. Letzteres wird schon synonym als ‚War for Talents‘ bezeichnet, bei dem es nicht nur um die junge Generation geht, sondern um qualifizierte Fach- und Führungskräfte aller Altersgruppen. Einer der Treiber ist der Megatrend Individualisierung. Zukünftig geht es nicht mehr um ein Vertragsverhältnis, bei dem eine Seite ihre Leistung zur Verfügung stellt und der andere das dafür vereinbarte Gehalt zahlt. In Zukunft muss der Job vereinbar sein mit der Sehnsucht nach Selbstbestimmung, maximaler Freiheit, Kreativität und ausreichender Freizeit – und weniger mit den Wünschen und Zielen des Arbeitgebers.
Neben Digitalisierung und Individualisierung müssen Innovationen als nächster Treiber für den Arbeitsplatz der Zukunft genannt werden. Die bisherige Arbeitsumgebung in den meisten Unternehmen war monoton, sachlich sowie funktional und somit demotivierend und völlig ungeeignet, um Teamwork, Kreativität und innovative Ideen zu fördern. Innovative Raumkonzepte reagieren auf Verhaltensmuster von Menschen und unterstützen kreative Potenziale. Daher geht es um mehr als nur um kreative und/oder digitale Gestaltungs- oder Einrichtungskonzepte. Ganzheitliche Raumkonzepte sind der visualisierte und gelebte Ausdruck einer innovationsfreundlichen Unternehmenskultur, um andere Sichtweisen zu entwickeln und kreative sowie innovative Ideen zu kanalisieren, zu strukturieren und zu fokussieren. Hierzu werden innovative Raumkonzepte je nach Funktionalität, Interaktion und Dynamik differenziert. Und egal, ob die flexiblen, innovativen und multisensorischen Räume als Ideenmanufaktur, Kreativwerkstatt, Innovationsschmiede, Innovation Lab oder Creative Space bezeichnet werden – im Endeffekt geht es darum, Kreativität, innovative Ideen, Veränderungsprozesse, Kommunikation und agile Kollaboration zu fördern.
A wie Archetypen
Archetypen sind ein Konzept aus der Psychologie und lassen sich als Urbilder beschreiben. Der Schweizer Psychoanalytiker Carl Gustav Jung identifizierte bereits in seiner Dissertation im Jahre 1902 zwölf vorprogrammierte Verhaltensmuster, die man bei jedem Menschen finden kann, unabhängig von Nationalität, Religion, Alter oder Geschlecht. Er konstruierte daraus 12 sich differenzierende Persönlichkeiten und nannte diese 1934 erstmals „Archetypen“. In den 1960-er Jahren beschrieb der Tiefenpsychologe Fritz Riemann diese in seinem Buch „Grundformen der Angst“ als treibende Kräfte der Persönlichkeitsentwicklung. Auch Abraham Maslow erkannte die archetypischen Verhaltensmuster als hintergründige Kräfte für grundlegende Motivationen und Bedürfnisse von Menschen und verwendete diese in seiner berühmtem Pyramide („Maslowsche Bedürfnishierarchie“). Die amerikanische Marketing-Professorin Jennifer Aaker von der Stanford Universität griff 1997 das Modell auf und ermittelte 15 verschiedene Facetten von Markenpersönlichkeiten. Spätestens das Werk der Markenexperten Margaret Marks und Carol S. Pearson „The Hero and the Outlaw: Building Extraordinary Brands Through the Power of Archetypes“ etablierte 2001 endgültig das Modell der Archetypen international zu einer anerkannten Methode für die strategische Markenpositionierung und -führung, die längst auch für andere Bereiche übernommen wurde.
Archetypen eignen sich hervorragend als Identifikationsfigur, sind universell einsetzbar und haben eine globale Symbolkraft. Sie werden seit Generationen mit ähnlichen Emotionen und Assoziationen in Verbindung gebracht, lassen sich authentisch umsetzen und anschaulich inszenieren. Zudem sind sie zeitlos und liefern bei aller Subjektivität eine objektive Bezugsgröße. Archetypen haben eine hohe Wiedererkennung, geben Orientierung und wirken somit stabilisierend. In der Markenpositionierung und -führung haben sie vor allem eine Aufgabe: sie geben der Markenpersönlichkeit ein spezifisches Profil, eine konkrete Identität. Auch wenn der Archetyp nicht nach außen kommuniziert wird, verursacht er bei dem Empfänger eine unbewusste Markensympathie und intuitives Markenvertrauen.
Um die archetypischen Verhaltensmuster nutzen zu können, übertrug Pearson die vier psychologischen Verhaltensweisen
- Ordnung/Sicherheit/Stabilität/Kontrolle
- Dominanz/Macht/Wandel/Meisterschaft
- Verbindung/Glück/Solidarität/Zugehörigkeit
- Unabhängigkeit/Individualität/Freiheit/Selbstverwirklichung.
von Menschen in ein Koordinatensystem und entwickelte daraus ein archetypisches Positionierungsmodell. Anschließend wurden die archetypischen Verhaltensmuster den Quadranten zugewiesen und ergaben somit die 12 Archetypen. Diese werden als
- der Unschuldige bzw. der Ehrliche
- der Weise
- der Entdecker
- der Rebell
- der Zauberer bzw. der Magier
- der Held
- der Liebende bzw. der Genießer
- der Narr bzw. der Spaßvogel
- der Durchschnittstyp bzw. der Jedermann
- der Betreuer bzw. der Beschützer
- der Herrscher
- der Schöpfer
bezeichnet. Je stärker die Archetypen den psychologischen Verhaltensmustern von Menschen entsprechen, desto weiter außen sind sie zu finden.
Der Unschuldige oder Ehrliche ist neugierig, spontan und optimistisch mit einem gewissen Maß an Naivität sowie moralisch und liebevoll. Seine wichtigsten Werte sind Glück und Vertrauen. Sein höchstes Ziel besteht darin, andere glücklich zu sehen. Ihm ist es wichtig, dazu zu gehören und Teil von etwas zu sein. Er hält sich an Regeln, ist ehrlich und glaubt an das Gute. Der Unschuldige wird als glaubwürdig und verlässlich angesehen. Marken dieses Archetypus liefern eine relativ simple Antwort auf ein Problem und haben eine klare Moralvorstellung. Bekannte Marken dieses Archetyps sind Disney, McDonalds, Tempo, Evian, Hipp und Frosch. Negative Presse wird möglichst vermieden, stattdessen positionieren sich die Marken umweltbewusst und fürsorglich, zeigen lachende Kinder und glückliche Familien.
Dem Weisen geht es vor allem um Wahrheit, Gerechtigkeit und Aufklärung. Mit seiner Intelligenz, seinem Verstand und der Besonnenheit, wahrheitsliebenden Art und analytischen Fähigkeiten möchte er die Welt erkennen und erklären. Sein Ziel ist das Bewahren der Menschheit vor Irrtümern. Er hasst Ignoranz. Daher eignet sich dieser Archetyp vor allem für Forschungseinrichtungen oder Unternehmen, die ihre Kunden zum (Nach)Denken inspirieren. Bekannte Marken sind die Fraunhofer-Gesellschaft, die Stanford und Harvard University sowie Beratungsunternehmen wie McKinsey oder Boston Consulting. Auch Marken wie Stiftung Warentest, TED oder IBM zählen zu diesem Archetyp.
Der Entdecker muss Abenteuer erleben und will die Welt erforschen. Er ist ehrgeizig, unbeirrbar, mutig, probiert Neues aus und legt großen Wert auf Freiheit und Unabhängigkeit. Er meidet Konformität und will nicht eingeengt werden. Sein Ziel ist die Auseinandersetzung mit allem Neuem und ein erfülltes Leben. Der Entdecker ist immer auf der Suche und seine Neugierde kennt keine Grenzen. Bekannte Beispiele sind die Brauerei Becks, Ikea, Jeep und Jack Wolfskin.
Der Rebell bricht Regeln aus tiefster Überzeugung. Seine Philosophie besteht in Disruption, Revolution oder Schock. Der Rebell bricht aus dem Mainstream aus. Er will stören, manchmal auch zerstören. Sein Auftreten ist oft kämpferisch oder verschmitzt. Vor allem, wenn eine junge Zielgruppe erreicht werden soll, ist dieser Archetyp ein wirksames Instrument. Bekannte Beispiele sind Red Bull, Virgin, Tesla, Dell, Harley Davidson oder Saturn. Früher war Apple der Inbegriff des Rebellen.
Der Zauberer oder Magier wird als wissensdurstig, kreativ, visionär und zukunftsweisend wahrgenommen. Er sucht nach Möglichkeiten und findet Lösungen, die die Welt bewegen. Neben Technologieunternehmen werden oft Startups mit dem Zauberer assoziiert. Bekannte Beispiele sind Apple, Google und Tesla, aber auch Dyson und die Walt Disney Company.
Der Held kommt in unterschiedlichen Formen vor. Als Wettkämpfer oder Retter ist er willens- und wissensstark, stolz, selbstbewusst und hilfsbereit. Seine Ziele verfolgt er mit hohem Selbstvertrauen und dem Glauben, das Schlechte zu bekämpfen und das Gute zu schützen. Er kennt seine eigene Stärke, ist kompetent, mutig, umsetzungsstark und verfügt über überdurchschnittliche Fähigkeiten. Dem Held ist auch immer eine Geschichte zugeschrieben, denn ein Held ist nur ein Held, wenn er auf Reise geht und eine Herausforderung annimmt. Bekannte Beispiele sind Porsche, Apple, Nike und Krombacher.
Der Liebende oder Genießer ist leidenschaftlich, verführerisch und steht für Nähe und Geborgenheit. Er gibt anderen das Gefühl, einzigartig zu sein und vermittelt Verständnis sowie Dankbarkeit. Außerdem zeichnet den Archetyp aus, dass er seine Attraktivität steigern möchte, lieben will und geliebt werden möchte. Außerdem steht dieser Archetyp für Genuss. Bekannte Beispiele sind Kaffee- und Schokoladensorten im Premiumsegment sowie die Marke Lenor, Montblanc und Chanel. Eine Untervariante dieses Archetypus ist die Sirene, die Verführerin des Odysseus. Ihr Wesen ist zweischneidig, da ihrer Attraktivität etwas Zerstörerisches anhaftet. Sie ist der Urarchetyp des „Sex Sells“ für alle Männerprodukte vom Auto bis zur Zeitschrift.
Der Narr oder Spaßvogel oder auch Charmeur sucht das Vergnügen und die Freude in allem, was er macht. Ihm ist die Sympathie anderer wichtig, deshalb unterhält er sie. Zudem ist es sein Ziel, andere zu bespaßen. Er lebt im Hier und Jetzt und genießt den Augenblick. Er ist das Gegenteil von Langeweile. Bekannte Beispiele sind BVG, Edeka, AIDA, Media-Markt oder Axe.
Der Jedermann ist das genaue Gegenteil des Helden – der Anti-Held. Er ist unauffällig, bodenständig, angepasst, „08/15“ und angenehm. Seine Empathie, Gradlinigkeit, Zuverlässigkeit und Bodenständigkeit sowie Loyalität zeichnen ihn aus. Er möchte auf keinen Fall auffallen und schon gar nicht anecken oder ausgegrenzt werden. Damit ist dieser Archetyp eine der schwierigsten Herausforderungen in der Markenpositionierung, da diese Marken ohne Ecken und Kanten auskommen müssen und dennoch ein Markenprofil entwickeln müssen. Bekannte Beispiele sind Ikea, Aldi, Coca-Cola, Coop, Rewe und VW.
Der Betreuer bzw. Beschützer wird als selbstlos, einfühlsam und fürsorglich wahrgenommen. Er vermeidet Egoismus, will andere helfen, unterstützen und Schutz bieten und ist verantwortungsbewusst. Ihn treibt die Überzeugung an, dass nur Nächstenliebe das Leben erfüllt. Negative Presse wird möglichst vermieden, stattdessen positionieren sich die Marken bewusst fürsorglich, zeigen lachende Kinder und glückliche Familien. Bekannte Beispiele sind Nivea, Volvo, Tempo, Hipp und die Drogeriemarktkette DM.
Der Herrscher steht für Macht, Autorität und Kontrolle sowie den Erhalt von Sicherheit und Ordnung. Mit großem Verantwortungsbewusstsein strebt er das Ziel einer harmonischen Gesellschaft an. Er versucht, seine Macht für Gutes zu nutzen. Er zeigt seinen Führungsanspruch deutlich und will diesen ausbauen. In übertriebener Form neigt er zu Rechthaberei und hat Angst vor Kontrollverlust. Dieser Archetyp passt zu Markt- und Innovationsführern sowie Premiummarken. Bekannte Beispiele sind Mercedes-Benz, BILD, Microsoft, Rolex und auch Amazon.
Der Schöpfer ist experimentierfreudig und kreativ. Er will seine Visionen in die Tat umsetzen und für die Welt erlebbar machen. Er will eine neue Realität schaffen. Seine Werte sind selbstverwirklichend, innovativ und kreativ. Mittelmäßigkeit vermeidet er, vor Fantasielosigkeit hat er Angst. Bekannte Beispiele sind Hornbach, Adobe, Lego und Apple.
Erfolgreiche Marken mit einem eindeutigen Markenkern sind in der Regel einem Archetypen und nur in Ausnahmen zwei benachbarten Archetypen zuzuordnen und lösen ein spezifisches Markenbild aus.
A wie ARPANET
ARPANET ist ein Akronym und steht für Advanced Research Projects Agency Network. Dieses dezentrale Computer-Netzwerk wurde im Auftrag der US Air Force Ende der 1960-er Jahre unter der Leitung des Massachusetts Institute of Technology und des US-Verteidigungsministeriums entwickelt und sollte verschiedene US-amerikanische Universitäten, die für das Verteidigungsministerium forschten, miteinander verbinden. Technologisch baute es auf ein Konzept von Licklider aus dem Jahr 1962 auf, das unter dem Namen „Intergalactic Computer Network“ bereits viele Ideen enthielt, die das heutige Internet auszeichnet. Die erste Datenübertragung erfolgte am 29. Oktober 1969 zwischen Computern an der University of California (Los Angeles) und dem Stanford Research Institute (San Francisco). Im Jahr 1983 wurden TCP/IP-Protokolle im ARPANET eingesetzt, wodurch das ARPANET ein Subnetz des frühen Internets wurde. Es gilt als der Vorläufer des heutigen Internets.
A wie Artificial Intelligence (AI)
Artificial Intelligence ist kein neuer Begriff, auch wenn dieser erst in den letzten Jahren vermehrt verwendet wird. Der Begriff tauchte bereits 1955 auf, als der US-amerikanische Informatiker John McCarthy diesen im Rahmen eines Förderantrags für ein Forschungsprojekt beschrieb. Artificial Intelligence (AI) wird übersetzt mit künstlicher Intelligenz (KI) und beschreibt ein Teilgebiet der Informatik. Dieses beschäftigt sich damit, Aspekte menschlichen Denkens und Handelns mit und durch Maschinen und Computer nachzubilden. Die Automatisierung intelligenten Verhaltens und das Maschinenlernen sind dabei wichtige Bestandteile.
Der Begriff ist schwierig zu definieren, da es nicht einmal eine wissenschaftlich anerkannte Definition von allgemeiner „Intelligenz“ gibt. In der Verwendung des Begriffs künstliche Intelligenz wird in der Regel das Verständnis widergespiegelt, das eine Maschine und Computer das menschliche Denken und Handeln „ersetzen“ sollen. Hierbei unterscheidet die Wissenschaft zwischen einer schwachen KI, die menschliches Denken und Handeln automatisiert und eine starke KI, bei der menschliches Sehen, Hören, Analysieren, Entscheiden und Handeln durch eine Maschine und Computer nachempfunden wird und hierbei intelligent reagiert oder sich wie ein Mensch verhält. Die Vorstellungen einer starken KI in Form emotionaler Intelligenz oder der Fähigkeit, selbst kreativ zu werden, sind aber weiterhin visionär.
Umstritten ist der Versuch, einen Computer so zu programmieren, damit dieser menschliche Entscheidungsstrukturen nachbilden kann. Denn dieser Ansatz dient mehr der Automation im Sinne einer nachgeahmten Intelligenz als dem von autark denkenden und handelnden Maschinen. Hierfür sind Maschinen und Computer mit der Fähigkeit erforderlich, anhand von Daten und mithilfe selbstlernender Algorithmen bestimmte Muster und Gesetzmäßigkeiten zu erkennen und zu analysieren, um daraus Zusammenhänge wie Rückschlüsse und Vorhersagen treffen zu können. Die Schlüsseleigenschaften menschlichen Denkens wie Lernen, Logik und Selbstreflektion werden hierbei künstlich initialisiert und nachgebildet. Trotz einer simulierten Ähnlichkeit unterscheiden sich Kognition und Entwicklungsstadien deutlich vom menschlichen Denken und Handeln. Auch wenn eine Maschine und ein Computer menschliche Gefühle wie Liebe, Hass oder Angst simulieren und täuschend echt wiedergeben können, sind sie dennoch nicht in der Lage, dies zu empfinden.
Zu den bekanntesten Arten künstlicher Intelligenz gehören
- Logical AI, bei der die künstliche Intelligenz bestimmte Situationen aus Daten analysiert und daraus den nächsten „logischen“ Schritt ableitet und eine Entscheidung trifft, die einer definierten Zielerreichung dient
- Search, bei der die künstliche Intelligenz aus einer Vielzahl potenzieller Möglichkeiten den plausibelsten und/oder idealtypischen nächsten Schritt auswählt
- Pattern Recognition, bei der die künstliche Intelligenz verschiedene Muster erkennt und kombiniert und daraus ein ganzheitliches Bild erstellt
Die künstliche Intelligenz wird heute schon in vielen Bereichen eingesetzt wie z. B. in der Forensik, Produktion und Prozesssteuerung, virtuellen Assistenten und Chatbots oder auch digitalen Sprachassistenten.
A wie Augmented Reality (AR)
Der Begriff Augmented Reality („erweiterte Realität”) beschreibt die Wahrnehmung einer um virtuelle und interaktive Elemente erweiterten realen Welt. Dies bedeutet, dass Augmented Reality sowohl die reale als auch virtuelle Welt abwandelt. Im Gegensatz zu Virtual Reality wird bei Augmented Reality keine virtuelle Welt geschaffen, die den Nutzer vollständig umgibt, sondern die physische Welt durch computergenerierte Einzelelemente ergänzt oder erweitert bzw. überlagert. Augmented Reality setzt in erster Linie auf die Interaktion zwischen virtuellen Elementen in einer realen Umgebung, um somit eine Augmentierung hervorzurufen, wodurch der Nutzer eine erweiterte Realität wahrnimmt. Im Idealfall entsteht beim Nutzer der Eindruck, dass die (physisch) realen und die virtuellen Objekte in ein und demselben Raum koexistieren. Man spricht dann auch von der AR-Experience (Begeisterung). Dabei können visuelle, akustische, haptische, gustatorische oder olfaktorische Sinne angesprochen werden. Des Weiteren muss das AR-System interaktiv in Echtzeit funktionieren. Augmented Reality ist nicht nur eine Technologie, sondern sollte auch als Kommunikationsmedium nicht vernachlässigt werden. Im Gegensatz zu Virtual Reality bleibt jedoch der Aspekt der Immersion unberücksichtigt, da bei AR nicht das vollständige Eintauchen in eine virtuelle Welt, sondern das authentische Erweitern der realen Welt im Vordergrund steht.
Damit eine Augmented Reality Anwendung eine Verbindung zwischen realer und virtueller Welt herstellen kann, muss sie zunächst eine Lokalisierung durchführen. Dabei handelt es sich nicht zwingend um eine GPS-Lokalisierung, sondern kann auch mittels QR-Code ähnlichen Elementen (genannt Marker) erfolgen.
A wie Autonomes Fahren
Autonomes Fahren ist eines der großen →Megathemen der Automobilindustrie. Es beschreibt das vollständig automatisierte Fahren eines Fahrzeugs ohne aktiven Fahrer und darf nicht mit assistiertem, automatisiertem oder teilautonomen Fahren gleichgesetzt werden. Genau genommen definiert autonomes Fahren im engeren Sinne nur den höchsten Automatisierungsgrad nach Level 4 und 5. Der Weg dorthin wird als automatisiertes oder pilotiertes Fahren bezeichnet, bei dem verschiedene Assistenzfunktionen den Antrieb, die Lenkung und die Bremse steuern bzw. in diese Systeme situativ und in Echtzeit eingreifen. Autonomes Fahren setzt verschiedene Arten von Assistenzsystemen voraus, die miteinander kommunizieren und die Funktion und Sicherheit autark gewährleisten. Hierzu gehören u. a. Geschwindigkeits-, Brems-, Stau-, Spurhalte-, Abbiege- und Einparkassistenten. Hinzu kommen Kameras und Mikrofone sowie unterschiedliche Sensorsysteme (z. B. Laser-, Ultraschall-, Radar- und Lidarsensoren für die Abstandsmessung). Die Technologien für das autonome Fahren sind eng mit der Konnektivität verbunden.
Die SAE (Society of Automotive Engineers) hat fünf Level des automatisierten bzw. autonomen Fahrens definiert. Diese Einteilung hat sich weltweit in der Automobilindustrie etabliert. Beim Level Null lenkt, beschleunigt und bremst der Fahrer selbst („Driver only“). Der Level 1 definiert einen assistierten Modus. Das Fahrzeug verfügt über einzelne unterstützende Systeme wie z. B. das Antiblockiersystem (ABS), Elektronische Stabilitätsprogramm (EPS) oder der Abstandsregeltempomat (ACC), die situativ selbsttätig eingreifen. Beim Level 2 übernehmen Assistenten teilautomatisierte Aufgaben wie z. B. die adaptive Geschwindigkeitsregelung, den Spurwechsel-, Stau- oder Einparkassistent sowie die automatische Notbremsung. Der Fahrer behält aber die Hoheit über das Fahrzeug und die volle Verantwortung. Von Level 3 ist die Rede, wenn das Fahrzeug streckenweise selbsttätig beschleunigen, bremsen und lenken kann (bedingte Automation). Das Fahrzeug führt selbständig Funktionen aus wie z. B. das Auslösen des Blinkers, den Spurwechsel und das Spurhalten. Der Fahrer muss das System nicht dauernd überwachen. Bei Bedarf fordert das System den Fahrer innerhalb einer Vorwarnzeit auf, die Kontrolle wieder zu übernehmen. Im Level 4 wechselt das Fahrzeug von dem hoch automatisierten in den autonomen Betrieb. Der Fahrer hat allerdings die Möglichkeit, einzugreifen und das System zu „überstimmen“. Gleiches gilt, wenn das System die situativen Fahraufgaben nicht mehr bewältigen kann. Dann übernimmt der Fahrer wieder die Führung. Der Level 5 definiert den vollautomatisierten, autonomen Betrieb des Fahrzeugs ohne die Möglichkeit (und Notwendigkeit) des Eingreifens durch den Fahrer. Der Fahrer übernimmt lediglich die Festlegung des Ziels und das Starten des Systems. Das Fahrzeug kommt ohne Lenkrad und Pedale aus.
Experten sind sich aktuell noch uneinig, wann autonomes Fahren die technische Reife zu 100% erreicht haben wird. Während das Fraunhofer-Institut IAO diesen Zeitraum für 2025 angab, prognostizierte die Deutsche Akademie der Technikwissenschaften (acatech) diesen Zeitraum nicht vor 2030. Angaben der Automobilhersteller sind dies bzgl. widersprüchlich. Beim autonomen Fahren mischen nicht nur die klassischen Automobilhersteller und ihre Zulieferer mit. Start-ups, Tech-Unternehmen und Elektronik-Konzerne prägen den Entwicklungsstand maßgeblich mit und sind dabei, sich Marktanteile in diesem Zukunftssegment zu sichern. Neben den Schwergewichten Google, Apple und Amazon sind vor allem die Unternehmen Cruise, Waymo, Mobileye, Aurora und Baidu zu nennen, die bei der Entwicklung so genannter Robotaxis weltweit als führend gelten.
Neben den technischen Herausforderungen vor allem in stark befahrenen Ballungsgebieten und schlecht einsehbaren Verkehrssituationen sind vor allem noch rechtliche, versicherungstechnische und ethische Fragestellungen beim autonomen Fahren zu klären. Erste rechtliche Rahmenbedingungen zum automatisierten Fahren in Deutschland wurden bereits 2017 geschaffen. Hierbei ging es im Wesentlichen um veränderte Rechte und Pflichten des Fahrers während ein Fahrzeug automatisiert fährt. Im Juli 2021 wurde ein Gesetz verabschiedet, mit dem die Zulassung von autonomen Fahrzeugen (Stufe 4) in festgelegten Bereichen möglich ist und im Juli 2022 die entsprechende Verordnung, in der die Details geregelt sind. Bei allen offenen Fragestellungen und Herausforderungen für die Versicherungsbranche haben einige Versicherer (u. a. die Allianz) bereits signalisiert, entsprechende Lösungen anbieten zu können. Allerdings benötigen die Versicherer für die Schadensabwicklung den Zugriff auf die Daten von Sensoren, was lt. Gesamtverband der Deutschen Versicherungswirtschaft (GDV) in Europa noch nicht geregelt ist. Autonomes Fahren stellt nur auf den ersten Blick für Versicherer ein erhöhtes Risiko dar. Mehrere Studien konnten belegen, dass das Fahren durch mehr Assistenzsysteme sicherer wird und somit zu weniger Fahrzeugschäden und einem Rückgang der Entschädigungsleistungen der Assekuranzen führen wird.
Deutlich komplexer sind ethische Fragen im Zusammenhang mit dem autonomen Fahren. Auch mit dem Einsatz hoch moderner Assistenzsysteme wird es Situationen geben, in denen Unfälle mit Personenschäden unvermeidbar sind. Ein menschlicher Fahrer würde in einer plötzlichen Situation, wenn z. B. ein Kind auf die Straße läuft, instinktiv reagieren – eine Fähigkeit, die der →künstlichen Intelligenz auf Jahre noch abgesprochen werden kann. Davon abgesehen, muss in diesen Situationen blitzschnell reagiert werden – eine Fähigkeit, bei denen künstliche Intelligenz dem Menschen überlegen ist. Deshalb müssen im Vorfeld Regeln definiert werden, wie sich ein autonomes Fahrzeug in welcher Situation zu verhalten hat. Aus diesem Grund hat eine Ethikkommission der Bundesregierung im Jahr 2017 mit dem Namen „Automatisiertes und vernetztes Fahren“ bereits Leitlinien erarbeitet. Eine Kernaussage besagt, dass bei „unausweichlichen Unfallsituationen jede Qualifizierung nach persönlichen Merkmalen wie z. B. Alter, Geschlecht, körperliche oder geistige Konstitution strikt untersagt ist“. Auch eine „Aufrechnung von Opfern“ ist nicht erlaubt. Mehrere Studien konnten belegen, dass die Fehlerhäufigkeit der künstlichen Intelligenz bei „moralischen Fragen“ besonders hoch ist.
Bei Prognosen über das autonome Fahren wird ein großer Fokus auf die technologischen Entwicklungen gelegt. Die Akzeptanz der Nutzer wird noch zu wenig hinterfragt. Eine Studie des Prognos-Forschungsinstituts belegt, dass sich autonomes Fahren nur sehr langsam durchsetzen wird. Das liegt zum einen darin, dass neue Fahrzeuge durchschnittlich 15 bis 20 Jahre im Einsatz sind und sich deshalb diese neue Technologie nur ganz allmählich im Markt durchsetzen wird. Die Studie geht davon aus, dass der Anteil autonom fahrender Autos im Jahr 2050 bei ca. 70 Prozent liegen wird. Zum anderen muss das Vertrauen in autonome Fahrzeuge erst wachsen.
AaaS (Analytics as a Service)
A wie AaaS (Analytics as a Service)
Der Begriff „Analytics as a Service“ (AaaS) beschreibt die Bereitstellung von Software zur Analyse von Geschäftsprozessen mithilfe von Web-Technologien. AaaS ist ein Service des →Cloud-Computing und bietet Unternehmen eine Alternative zu internen Ressourcen, um Analyseprozesse durchzuführen. Business Analytics als Serviceleistungen wird für Unternehmen immer interessanter, da der Aufbau und die Implementierung interner Analyseprozesse ein arbeits- und kostenintensiver Prozess werden kann. Je nach Umfang und Komplexität der durchzuführenden Analysen benötigen Unternehmen ggf. deutlich mehr Server und andere Arten von Hardware und zwangsläufig mehr Mitarbeiter im IT-Bereich und je Unternehmensstruktur im Controlling oder im Business Analytics. Dem gegenüber gewährt ein Anbieter von Analytics-as-a-Service gegen eine monatliche Gebühr Unternehmen den Zugriff auf eine Remote-Analyseplattform.
A/B-Testing
A wie A/B-Testing
Das A/B-Testing ist eine Methode, mit der zwei Varianten einer Sache miteinander verglichen werden um festzustellen, welche effizienter ist oder die bessere Performance erzielt. Die auch als Split-Testing bekannte Methode wird häufig im Zusammenhang mit dem Vergleich einer Website oder App genannt, allerdings besteht diese schon länger als das Internet. Der britische Biologe und Statistiker Ronald Fisher entwickelte diese Methode mithilfe der Mathematik in den 1920-er Jahre und legte den Grundstein, um mindestens zwei verschiedene Erfahrungen wissenschaftlich zu untersuchen. Fishers Methode wurde in vielen Branchen angewendet u. a. in der Auswertung von klinischen Studien. In den 1960-er Jahren wurde die Methode im Marketing aufgegriffen. Das A/B-Testing, wie es heute bekannt ist, existiert allerdings erst seit den 1990-er Jahren und war vor allem im Direktmarketing eine geschätzte Methode. Die beiden Varianten werden A und B genannt und den Nutzern nach dem Zufallsprinzip angezeigt. Ein Teil der Nutzer gelangt zur ersten Variante, ein anderer Teil zur zweiten. Mittels einer statistischen Analyse wird die Effizienz von Version A und Version B hinsichtlich verschiedener Indikatoren wie z. B. der Conversion Rate getestet. Somit kann schon in der Testphase ermittelt werden, welche Version z. B. zu den meisten Klicks, Registrierungen, Abonnements, Käufen und dgl. führt, um darauf eine gezielte Marketingstrategie zu entwickeln. Aufgrund der technologischen Entwicklung gibt es heute spezielle A/B-Testing-Tools für die Durchführung und Auswertung solcher Tests und Indikatoren.
Es gibt verschiedene Arten vom A/B-Testing. Beim klassischen A/B-Test werden den Nutzern zwei oder mehrere Varianten (Dummy) einer Seite gezeigt und wie oben erwähnt verglichen. Beim Split-Test oder Weiterleitungstest wird der Traffic an eine andere oder mehrere andere URLs weitergeleitet und beim →multivariaten Test (MVT) wird gemessen, wie sich mehrere veränderte Elemente auf ein und derselben Seite auswirken. Dies können grafische Elemente sein wie z. B. einzelne Bilder oder das gesamte Design, Schriftfarbe oder -größe, Fotos oder Banner und dgl., aber auch Inhalte. Mit diesem Test wird überprüft, welche Kombination die beste Leistung erzielt.
A/B/N-Testing
A wie A/B/N-Testing
A/B/N-Testing ist ein erweitertes →A/B-Testing. Während beim herkömmlichen A/B-Testing zwei Versionen einer Sache miteinander verglichen und getestet werden, bezieht sich die Variable N auf mehr als zwei Versionen, also von der zweiten Version bis zur „n-ten“ Version.
Accelerator
A wie Accelerator
Ein Accelerator ist ein systematisches Aufbauprogramm für →Startups und beinhaltet die professionelle Betreuung und Unterstützung von jungen Unternehmen. Neben der rein finanziellen Unterstützung enthalten Accelerator-Programme weitere Komponenten wie z. B. den Zugang zu Netzwerken, das Bereitstellen von Ressourcen, Infrastruktur und Kompetenzen. Hinzu kommt ein professionelles Mentoring-Programm und ein gezieltes Expertencoaching. Alle Maßnahmen konzentrieren sich auf die Skalierung, Optimierung und Beschleunigung des Geschäftsmodells und darauf, die Markteinführung eines →Minimum Viable Products (MVP) mit möglichst geringen Investitionen zu beschleunigen. Dies geschieht in der Regel in einem späteren Entwicklungsstadium, in dem ein Startup seinen bevorstehenden Markterfolg und ein Wachstumspotenzial über einen definierten Zeitraum nachweisen muss. Auch wenn Accelerator- und Inkubator-Programme einige Gemeinsamkeiten und Überschneidungen aufweisen und oft synonym genannt werden, gibt es feine Unterschiede. Diese liegen im Alter der Unternehmen und dem Entwicklungsstand der Geschäftsidee. Ein Accelerator verfolgt in der Regel das Ziel, das Wachstum eines bereits vorhandenen Geschäftsmodells zu beschleunigen. Bei einem →Inkubator dagegen steht vor allem die Entwicklung einer Geschäftsidee im Vordergrund, weshalb er oft als „Brutkasten“ bezeichnet wird. Der Accelerator dagegen ist als eine Art „Wachstumsbeschleuniger“ zu verstehen. Als Gegenleistung für die Unterstützung und Betreuung müssen Startups in der Regel Geschäftsanteile an ihrem Unternehmen abgeben. Die Dauer eines Accelerator-Programms ist in den meisten Fällen auf drei bis sechs Monate ausgelegt.
Additive Fertigung
A wie Additive Fertigung
→3D-Druck
Affective Computing
A wie Affective Computing
Affective Computing steht im Bereich der künstlichen Intelligenz für das Sammeln von Daten aus Mimik und Gestik, um menschliche Emotionen zu messen. Möglich wird das Sammeln der Emotionen, wie z. B. Muskelspannung und -entspannung, Körperhaltung, Herzfrequenz, Pupillenerweiterung oder Körpertemperatur, durch Sensoren, Kameras, Deep Learning und Big Data. Affective Computing, auch bekannt als Emotion Artificial Intelligence, soll dazu beitragen, die Interaktion mit Maschinen und künstlicher Intelligenz zu humanisieren. Die Potenziale sind vielfältig. In allen Bereichen des Lebens können sich „emotionale“ Maschinen optimal auf Menschen in einer individuellen Situation einstellen und die Interaktion mit diesen verbessern. Affective Computing wird somit die Lücke zwischen menschlicher Emotion und Maschine noch weiter schließen und so ermöglichen, dass Menschen zur Robotik und künstlicher Intelligenz mehr Vertrauen aufbauen werden.
Agentur für Sprunginnovation (SPRIND)
A wie Agentur für Sprunginnovation (SPRIND)
Die Agentur für Sprunginnovation (kurz SPRIND) wurde 2019 vom Bundesministerium für Bildung und Forschung (BMBF) und dem Bundesministerium für Wirtschaft und Klimaschutz (BMWK) ins Leben gerufen. Ihre Aufgabe liegt in der finanziellen Förderung von →Sprunginnovationen und Ideen, die das Potenzial zur Sprunginnovation haben. Ziel ist es, hochinnovative Ideen zu identifizieren, zu unterstützen und zu beschleunigen und anschließend auf dem Markt zu etablieren. Hierzu wurde ein Netzwerk geschaffen, in dem Experten aus Wirtschaft und Wissenschaft zusammenarbeiten. Sie hat mit der US-amerikanischen →DARPA ein großes Vorbild und ein noch größeres Ziel: Deutschland wieder an die Weltspitze bahnbrechender Technologien und disruptiver Innovationen heranzuführen. Auch wenn SPRIND für Sprunginnovationen in Deutschland steht, ist es ein Anliegen der Agentur, die innovativsten Köpfe aus verschiedenen Ländern möglichst früh zusammenzubringen und international zu vernetzen. Einer der wichtigen Partner ist hierbei der →Europäische Innovationsrat (EIC), der Innovationen auf europäischer Ebene vorantreibt und somit die Wettbewerbsfähigkeit der Europäischen Union im globalen Wettbewerb um Schlüsseltechnologien unterstützt.
Agiles Manifest
A wie Agiles Manifest
Das agile Manifest (im Original „Manifesto for Agile Software Development”) wurde 2001 von einer Gruppe renommierter Softwareentwickler formuliert. Es bildet das Fundament im agilen Projektmanagement, da Entwicklungsprojekte von Software eine hohe Komplexität aufweisen und die technologische Entwicklung sehr dynamisch verläuft. Außerdem brauchen diese Projekte viele unterschiedliche Kompetenzen und eine flexible Umsetzung. Zwangsläufig mussten agile Prinzipien in einer Branche entwickelt werden, die schon vor über 20 Jahren an die Grenzen linearer Wasserfall-Modelle gestoßen ist.
Das agile Manifest wird durch vier Leitsätze gebildet und stellt diese zur Verdeutlichung seiner Kernaussagen den herkömmlichen bzw. traditionellen Vorgehensmodellen gegenüber. „Wir erschließen bessere Wege, Software zu entwickeln, indem wir es selbst tun und anderen dabei helfen. Durch diese Tätigkeit haben wir diese Werte zu schätzen gelernt:
- Individuen und Interaktionen sind wichtiger als Prozesse und Werkzeuge.
- Funktionierende Software ist wichtiger als eine umfassende Dokumentation.
- Zusammenarbeit mit dem Kunden ist wichtiger als Vertragsverhandlung.
- Reagieren auf Veränderung ist wichtiger als das Befolgen eines Plans.“
Dies bedeutet, dass der Mensch im Fokus steht und der direkte Austausch untereinander wichtiger ist als Formalismen. Anders ausgedrückt: auch der beste Prozess kann ein persönliches Gespräch nicht ersetzen. Nicht ohne Grund organisieren sich agile Teams in gemeinsamen Räumlichkeiten, um eine enge Zusammenarbeit und pragmatische Kommunikation sicher zu stellen. Der zweite Leitsatz bringt die hohe Fokussierung auf Werte, Lösungen und Ergebnisse zum Ausdruck. Agile Teams suchen konkrete Lösungen und streben Arbeitsergebnisse an, anstatt sich mit aufwändigen Dokumentationen oder der Gestaltung von Präsentationen aufzuhalten. In herkömmlichen Organisationen mit klassischer Projektkultur werden nicht selten mehr Ressourcen in die Erstellung von Powerpoints verwendet, um Lenkungsausschüsse oder Entscheidungsgremien zu überzeugen als in die Erledigung der eigentlichen Projektaufgabe. Der Kunde hat in der Projektarbeit agiler Teams die zentrale Bedeutung, ist Teil des Prozesses und mit seinen Bedarfen und Bedürfnissen, Problemen und Wünschen quasi immanenter Teil des Teams. Ausgeprägtes Zielgruppenverständnis und Kundenempathie sowie regelmäßiger Austausch sind wichtiger als Formalien wie z. B. Verträge. Dies bedingt schon allein der dritte Leitsatz, da agile Teams sehr flexibel, dynamisch, adaptiv und iterativ arbeiten. Das schnelle und angemessene Reagieren auf Veränderungen ist wichtiger als das sture Befolgen eines statischen Plans. Häufig wird diese Eigenschaft als planlos, chaotisch, willkürlich oder sprunghaft ausgelegt, ohne zu erkennen, dass agile Teams in erster Linie auf ein Ziel fokussiert sind und auf dem Weg dahin von ihrem ursprünglichen Plan abweichen, wenn es sinnvoll und zielführend erscheint. Diese vier Leitsätze sind das Grundgerüst, das durch zwölf Prinzipien weiter konkretisiert und operationalisiert wird. Sie bilden den Handlungsrahmen für agile Teams.
- “Our highest priority is to satisfy the customer through early and continuous delivery of valuable software” (Unsere höchste Priorität ist es, den Kunden durch frühe und kontinuierliche Auslieferung wertvoller Software zufrieden zu stellen). Kunden werden nicht nur als Auftraggeber gesehen, sondern als Teil der Entwicklung. Infolgedessen werden sie aktiv und frühzeitig mit einbezogen, in dem sie in die Meilensteine und Arbeitsergebnisse mit eingebunden werden. Somit können mögliche Fehlentwicklungen rechtzeitig erkannt und gegengesteuert werden.
- “Welcome changing requirements, even late in development. Agile processes harness change for the customer’s competitive advantage“ (Selbst späte Anforderungsänderungen in der Entwicklung sind willkommen. Agile Prozesse nutzen Veränderungen zum Wettbewerbsvorteil des Kunden). Dieses Prinzip darf nicht falsch verstanden werden. Es geht nicht darum, Projekte nicht von Anfang an bis zum Ende durchzuplanen und Anforderungen willkürlich zu ändern. Das agile Manifest möchte starre Strukturen aufbrechen und ein stures Festhalten an einem ursprünglich verabschiedeten Vorgehen vermeiden. Neue Anforderungen durch ein Feedback von Kunden oder Marktveränderungen müssen bis zum Schluss möglich sein und sollen den Erfolg eines Projektes sicherstellen. Für die Projektkultur ist wichtig zu differenzieren, ob Änderungen zu einem späten Zeitpunkt unvorhersehbar waren oder auf eine unzureichende Planung oder schlechte Kommunikation zurück zu führen sind.
- „Deliver working software frequently, from a couple of weeks to a couple of months, with a preference to the shorter timescale“ (Liefere funktionierende Software regelmäßig innerhalb weniger Wochen oder Monate und bevorzuge dabei die kürzere Zeitspanne). Die Arbeit in kurzen Zeitintervallen ist ein Grundprinzip im agilen Projektmanagement und basiert auf der Erkenntnis, dass zu lange Planungsphasen Unsicherheit und Risiko erhöhen. Man bezeichnet dieses Phänomen auch als “Cone of uncertainty”. Hierbei hat sich die Regel bewährt: je unbekannter oder riskanter ein Projektziel ist, umso kürzer sollten die Intervalle angesetzt werden. Der zweite Teil, ein konkretes und funktionierendes Arbeitsergebnis abzuliefern, sollte selbstverständlich sein.
- „Business people and developers must work together daily throughout the project“ (Fachexperten und Entwickler müssen während des gesamten Prozesses eng zusammenarbeiten). Dieses Prinzip ist eine Spiegelung der Realität in herkömmlichen Organisationen, die oft linear und hintereinander gekoppelt agieren. Anforderungen werden vom internen Auftraggeber formuliert und im Anschluss durch einen internen oder externen Auftragnehmer umgesetzt. Schließlich versteht der Auftraggeber etwas vom Business und der Auftragnehmer etwas von Software oder dgl. Jeder hat seine Kompetenzen und soll diese nach Zuständigkeiten einbringen. Agile Teams arbeiten so nicht. Für sie ist selbstverständlich, dass agile Teams interdisziplinär zusammen gesetzt sind und jeder Spezialist Teil des Projektteams sein muss, um gemeinsam ein lösungsorientiertes Ergebnis mit Mehrwert für den Kunden zu entwickeln.
- „Build projects around motivated individuals. Give them the environment and support they need, and trust them to get the job done” (Errichte Projekte rund um motivierte Menschen. Gib ihnen das Umfeld und die Unterstützung, die sie benötigen und vertraue darauf, dass sie die Aufgabe erledigen.“ Agile Teams sind überzeugt, dass Menschen autonom, kreativ und selbstorganisiert handeln. Deshalb setzen sich agile Teams auch nicht aus Menschen zusammen, die in ihren jeweiligen Fachabteilungen die höchste Kompetenz aufweisen, sondern hoch motiviert sind und ihren Handlungsspielraum kundenzentriert und im Sinne des Unternehmens ausüben. Dies funktioniert in erster Linie durch volles Vertrauen und Rückendeckung durch das Top-Management.
- „The most efficient and effective method of conveying information to and within a development team is face-to-face conversation“ (Die effizienteste und effektivste Methode, Informationen an und innerhalb eines Entwicklungsteams zu übermitteln, ist im Gespräch von Angesicht zu Angesicht). Offene, transparente und vor allem persönliche Kommunikation ist das wirkungsvollste Instrument. Nur so können sich agile Teams synchronisieren, nachhaltige Entscheidungen treffen und evtl. Spannungen klären bzw. Konflikte lösen.
- “Working software is the primary measure of progress“ (Funktionierende Software ist das wichtigste Fortschrittsmaß). Dies bedeutet, dass der Projektfortschritt auf Basis konkreter und vorzeigbarer Ergebnisse sowie durch Kundenfeedback zu bewerten ist. Theoretische Abhandlungen jeglicher Art gehören der Vergangenheit an. Jede Form von Ergebnissen, die eine Beurteilung des Projekterfolgs ermöglichen oder auch belegen, dass gewisse Annahmen ursprünglich nicht aufrechterhalten werden konnten oder Entscheidungen falsch waren, sind willkommen. Auch Learnings tragen dazu bei, zukünftig Ressourcen besser einzusetzen, Verschwendung zu vermeiden und Ergebnisse zu optimieren.
- „Agile processes promote sustainable development. The sponsors, developers, and users should be able to maintain a constant pace indefinitely” (Agile Prozesse fördern nachhaltige Entwicklung. Die Auftraggeber, Entwickler und Benutzer sollten ein gleichmäßiges Tempo auf unbegrenzte Zeit halten können). Kontinuität ist eine wichtige Voraussetzung, um agiles Arbeiten implementieren zu können. Agile Denk- und Arbeitsweise kann man nicht in einem mehrstündigen Workshop lernen. Man braucht ein aktives Projektcoaching, das regelmäßig stattfindet und situativ eingreift. Nur so können agile Werte entwickelt und agile Methoden implementiert werden. Dies geschieht durch kontinuierliches Ausprobieren und Anpassen, einen offenen Dialog und Selbstreflektion und vor allem die Bereitschaft, sich „konstruktiv zu reiben“ – immer im Sinne des Projekts und seiner Zielsetzung und -erreichung.
- „Continuous attention to technical excellence and good design enhances agility“ (Ständiges Augenmerk auf technische Exzellenz und gutes Design fördert Agilität). Technische Exzellenz meint im übertragenen Sinne die „Liebe zum Detail”. Ein durchstrukturiertes Projekt mit einem hohen Detaillierungsgrad minimiert das Auftreten von zu erwartenden Problemen oder Fehlern, reduziert das Kostenrisiko und vermeidet unnötiges Nacharbeiten, wodurch Motivation des Teams und Zufriedenheit des Kunden steigt. Ein fehlender Qualitätsanspruch führt gerade bei technischen Systemen zu exponentiell wachsenden “costs of ownership” bis zu dem Punkt, dass ein System neu entwickelt werden muss. Design hat im Kontext von Agilität mehrere Bedeutungen. Gestaltung, Struktur, Prozesse, Services, Produkte sowie Geschäftsmodelle müssen einfach und idealerweise intuitiv sein. Dies vermeidet Komplexität und Abhängigkeit.
- “Simplicity – the art of maximizing the amount of work not done – is essential (Einfachheit – die Kunst, die Menge nicht getaner Arbeit zu maximieren – ist essenziell). Für agile Teams geht es in erster Linie darum, dass ihr Ergebnis einen wirklichen und messbaren Mehrwert aus Sicht des Kunden hat. Qualität statt Quantität, nicht anders sein, sondern besser sind die Maxime im agilen Projektmanagement.
- „The best architectures, requirements, and designs emerge from self-organizing teams“ (Die besten Architekturen, Anforderungen und Entwürfe entstehen durch selbstorganisierte Teams). Damit agile Teams erfolgreich sein können, brauchen sie ein hohes Maß an gegenseitigem Vertrauen, eine positive Fehlerkultur und Konfliktbereitschaft. Denn nur wenn unterschiedliche Perspektiven, Erfahrungen und Expertise in einem heterogen Team einfließen, entstehen innovative Ideen mit einem hohen Potenzial, erfolgreich umgesetzt zu werden. Dazu brauchen agile Teams keinen Supervisor, Mentor oder Manager.
- „At regular intervals, the team reflects on how to become more effective, then tunes and adjusts its behavior accordingly“ (In regelmäßigen Abständen reflektiert das Team, wie es effektiver werden kann und passt sein Verhalten entsprechend an). Eine der Methodenkompetenzen von agilen Teams sind Retrospektiven. In fest definierten Abständen gibt es Manöverkritik, um die Zusammenarbeit kontinuierlich zu verbessern. Hierbei geht es selten um einzelne Mitglieder und immer um das Team. Diese Feedbacks sind Ausdruck über die Fehler- und Meeting-Kultur im Kleinen sowie Teams- und Unternehmenskultur im Großen.
Agile Tool Cards
A wie Agile Tool Cards
Agile Tool Cards sind ein von Brainbirds entwickeltes Karten-Set, das in der agilen Organisationsentwicklung eingesetzt werden kann. Auf 53 Karten werden praxisorientiert und sehr anschaulich die verschiedenen Themen aufbereitet, die für Transformation und Agilität entscheidend sind. Hierbei wird differenziert von der übergreifenden Ebene “Kultur & Mindset“ über agile „Methoden & Prozesse“ bis hin zu den „Werkzeugen & Techniken“, die ein schnelles und effizientes Arbeiten ermöglichen. Das Karten-Set unterstützt Fach- und Führungskräfte bei der Vermittlung und Anwendung dieser Themen – im Einzelcoaching, Teamtraining oder Anwendung in der gesamten Organisation. Jede Karte beinhaltet eine thematische Übersicht, eine genaue Beschreibung der Anwendung, Empfehlungen für Templates & Materialien sowie nützliche Tipps für die praktische Umsetzung der Konzepte. Zu den Themen gehören:
- Kultur & Mindset wie z. B. Entwicklung einer Unternehmenskultur, VUCA-Welt, Digitale Transformation, Agiles Mindset, Leadership & Management in der digitalen Arbeitswelt oder Customer Centricity
- Design Thinking wie z. B. Co-Creation, Prototyping und Testing, Personas oder Google Sprint
- Business Model Generation wie z. B. Entwicklung von neuen Geschäftsmodellen, Analyse und/oder Innovation bestehender Geschäftsmodelle, Business Model Canvas, Lean Canvas, Monetarisierung von Geschäftsmodellen oder Value Proposition
- Lean Startup wie z. B. Iterative Produktoptimierung, MVP (Minimum Viable Product), Produktentwicklung mit Hilfe der Build-Measure-Learn-Zyklen oder Hypothesen-Validierung mit Prototypen und Feedback-Sessions
- Scrum wie z. B. kurze iterative Sprints, erfolgreiche Projektdurchführung mit klaren Rollen und Kernelementen sowie strukturierte Umsetzung von Produkten und/oder Services
- Werkzeuge & Techniken wie z. B. Brainstorming-Methoden, analoges & digitales Prototyping, agile Projektmanagement-Techniken, Analyse-Tools sowie Räume & Materialien für agiles Arbeiten.
Agilität
A wie Agilität
Agilität ist keine neue Funktionalität, auch wenn der Begriff erst in den letzten Jahren verstärkt aufgetreten ist. Der Ursprung kommt auch nicht aus der Softwareentwicklung, wie häufig angenommen wird. Der Begriff Agilität taucht bereits in der Systemtheorie von Organisationen auf, die in den 1950er-Jahren entwickelt wurde. Demnach beruht die Funktionsfähigkeit von Organisationen auf vier Bausteinen – dem so genannten AGIL-Schema:
- Adaption (Fähigkeit, auf sich verändernde äußere Bedingungen zu reagieren),
- Goal Attainment (Ziele definieren und verfolgen),
- Integration (Zusammenhalt (Kohäsion) und Inklusion (Einschluss) herstellen und absichern) sowie
- Latency (Beibehaltung grundlegender Ziele und Werte)
Agilität beschreibt somit die Fähigkeit einer Organisation, sowohl flexibel (im Sinne von reaktiv) als auch proaktiv zu handeln und hierbei von den sich immer schneller ändernden Rahmenbedingungen im unternehmerischen Umfeld zu antizipieren und initiativ zu werden, um notwendige Veränderungen einzuführen und sich wandelnden Märkten anzupassen. Agilität somit nur auf Flexibilität zu reduzieren, wie dies häufig vorgenommen wird, wäre zu kurz gedacht.
Seitdem wurde das Konzept der Agilität in drei Richtungen weiterentwickelt:
- Agiles Manufacturing, bei dem es um schnelle Produktentwicklung (Simultaneous Engineering), multifunktionale Teams und die kontinuierliche Verbesserung des Produktionsprozesses geht. Diesem Ansatz folgend basiert die Idee der Industrie 4.0: Prozesse werden unterbrochen und optimiert, Projekte wiederholt neu aufgesetzt, um neue Erkenntnisse mit einfließen zu lassen. Charakteristisch für agile Methoden ist ein iteratives Vorgehen.
- Agile Softwareentwicklung, bei der die Teams und Interaktionen den Prozessen und Tools übergeordnet sind. Eine funktionierende Software ist wichtiger als eine umfassende Dokumentation, die Zusammenarbeit mit dem Kunden wichtiger als vereinbarte Verträge, die flexible Reaktion auf Veränderung wichtiger als das Befolgen eines ursprünglichen Plans – ein Paradigmenwechsel für die meisten klassischen Industrieunternehmen. Die iterative Arbeitsweise ermöglicht Feedback und Korrektur. Eine der beliebtesten Methoden hierfür ist Scrum.
- Agile Organisationen sind die neueste Entwicklung. Sie beruhen auf Transparenz, Dialog, Vertrauen, Entscheidungsfreiheit und kurzen Wegen für Rückmeldungen. Wissen wird geteilt, Informationen werden offen weitergegeben, Fehler offen und konstruktiv angesprochen. Statussymbole und klassische Hierarchien entfallen. Mitarbeiter werden in die Personalplanung mit einbezogen und Mitarbeiterentwicklung erfolgt nicht nur auf Basis von Vorgaben, sondern auch durch „Peer Feedback“ aus den Teams. Die agile Organisation bezieht sich nicht nur auf Produktionsprozesse oder die Software-Entwicklung, sondern fokussiert die Transformation von Unternehmen.
Agilität unterscheidet vier zentrale Aspekte:
- Geschwindigkeit: Agile Organisationen müssen schnell und dynamisch reagieren.
- Anpassungsfähigkeit: Agile Organisationen müssen sich schnell an Veränderungen anpassen.
- Kundenzentriertheit: Agile Organisationen legen den Fokus auf die Bedürfnisse bzw. Bedarfe der Kundschaft. Kurze iterative Bearbeitungszyklen ermöglichen schnelles und punktuelles Reagieren auf Marktveränderungen und Kundenwünsche.
- Haltung: Agile Organisationen haben keine „Mitarbeitenden“, sondern ganzheitlich in Lösungen denkende Teammitglieder, die über ein agiles Mindset verfügen.
Um Agilität zu entwickeln und auszubauen, müssen die Rahmenbedingungen für agile Vorgehensweisen geschaffen werden, Ergebnisse müssen in den Mittelpunkt gestellt werden und nicht Prozesse, Strukturen und Hierarchien, die Unternehmenskultur muss Fehler erlauben, die Stärken der Teammitglieder müssen gefördert werden und ganz wichtig ist, Vertrauen unter den Menschen aufzubauen und ihnen Verantwortung und Freiräume zu geben.
AIaaS (Artificial Intelligence-as-a-Service)
A wie AIaaS (Artificial Intelligence-as-a-Service)
Artificial Intelligence as a Service (AIaaS) beschreibt ein Angebot, →künstliche Intelligenz an einen externen Dienstleister auszulagern. Kleinen und mittleren Unternehmen fehlen in der Regel die finanziellen und fachlichen Ressourcen, um eigene KI-Anwendungen zu entwickeln und zu implementieren. Daher greifen immer mehr Unternehmen auf Cloud-KI-Anbieter wie z. B. Microsoft Cognitive Services, Amazon Machine Learning, IBM oder Google Cloud Machine Learning zurück, die neben der Hardware auch entsprechende Entwicklungswerkzeuge für Artificial Intelligence (AI) auf →SaaS-Basis anbieten. Mit ihnen können schlüsselfertige KI-Applikationen entwickelt werden. Somit können sich Unternehmen die kostspielige Investition der erforderlichen Hard- und Software sowie Personal- und Wartungskosten für den Start der On-Premise-Cloud-KI sparen. Die oben genannten Cloud-KI-Anbieter legen ihren Schwerpunkt auf →Machine-Learning-as-a-Service. Ursächlich hierfür ist, dass maschinelles Lernen methodisch und technisch das am weitesten entwickelte Gebiet der Künstlichen Intelligenz ist. Mit dem „Deep Learning“ steht eine Implementierung eines künstlichen neuronalen Netzes zur Verfügung, mit dem Daten in Wissen verwandelt und Vorhersagemodelle etwa für →Predictive Analytics, Ausfallrisiken oder Kundenverhalten entwickelt werden können.
AIDA
A wie AIDA
AIDA ist ein Akronym und steht für die Begriffe Attention (Aufmerksamkeit), Interest (Interesse), Desire (Verlangen) und Action (Handlung). Das AIDA-Modell (auch als AIDA-Formel oder AIDA-Prinzip bezeichnet) ist ein Stufenmodell zur Beschreibung der Werbewirkung im Marketing (Werbepsychologie). In dem von Elmo Lewis bereits im Jahr 1898 entwickelten Modell durchlaufen Konsumenten vier aufeinanderfolgende Phasen, bevor sie schlussendlich den Kauf eines Produktes oder einer Dienstleistung vollziehen.
In der ersten Phase der Marketingkommunikation geht es um die Gewinnung von Aufmerksamkeit bei der gewünschten Zielgruppe, was angesichts zunehmender Reizüberflutung und aktiver Ablehnung von Werbung immer schwieriger wird. Was früher durch auffällige Farben, freche Werbesprüche oder ungewöhnliche Bildmotive gelang, reicht heute immer weniger, um Aufmerksamkeit bei der Zielgruppe zu erzielen. Gelingt dies, geht es in der nächste Phase darum, die gewonnene Aufmerksamkeit zu nutzen, um tiefer gehendes Interesse an der Werbebotschaft zu wecken. In dieser Phase geht es um die Auseinandersetzung der potentiellen Kundschaft mit der jeweiligen Werbebotschaft, um die Marke, das Produkt oder die Dienstleistung nachhaltig im Gedächtnis des Konsumenten zu verankern. Entsteht daraus ein Verlangen des Kunden ist die dritte Stufe des Werbewirkungsmodells erreicht. Aus dem geweckten Interesse des Kunden entsteht das Verlangen, das umworbene Angebot zu besitzen, also konkret zu erwerben. Hierfür wird ein gezieltes Werbeversprechen adressiert, das auf der emotionalen und/oder kognitiven Ebene stattfindet. In der letzten Phase des AIDA-Modells steht die Handlungsaufforderung zum Erwerb des Produkts oder der Dienstleistung, auf neudeutsch auch als „Call-to-Action“ bezeichnet. Erst mit Abschluss des Kaufs ist das Stufenmodell abgeschlossen.
Im Laufe der Jahre entstanden zahlreiche Modifikationen des Werbewirkungsmodells, zum Teil aus Widersprüchen und zum anderen aufgrund der Weiterentwicklung der Märkte und der hinzugekommenen Absatzkanäle. Kritiker sehen das Interesse nicht als Folge, sondern eher als Voraussetzung von Aufmerksamkeit (IADA). Erweiterungen finden in erster Linie durch das Hinzufügen von Wirkungsstufen z. B. „gain confidence“ (AIDCA), „satisfaction“ (AIDAS), „recommendation“ (AIDAR) oder „conviction“ (AIDCAS) statt. Die Abkürzung I-AIDA bekommt im Online-Marketing zunehmend Bedeutung, da die Intention z. B. durch Eingabe des Begriffs in einer Suchmaschine dem typischen AIDA-Modell vorausgeht. Alle Werbewirkungsmodelle haben gemeinsam, dass der umworbene potenzielle Käufer vom ersten Stimulus bis zum Kaufabschluss zwischen mindestens 4 und bis maximal 10 Phasen durchläuft. Diese Wirkungsstufen bilden eine Hierarchie der Effekte von Ursache und Wirkung. Vom vierstufigen AIDA-Modell weicht das CAB-Modell ab. CAB steht für Cognition (Wahrnehmung), Affect (Emotion/Effekt) und Behaviour (Verhalten). Hinter diesen drei Buchstaben steckt ein komprimiertes Werbewirkungsmodell, das von AIDA beeinflusst ist, den Prozess bis zum Abschluss aber anders beschreibt. Die DAGMAR-Formel ist ein der AIDA-Formel ähnliches Modell, das aber den Fokus stärker auf Wirkung und Erfolg der Werbung lenkt. DAGMAR steht für Defining Advertising Goals for Measured Advertising Results und beschreibt zum einen das Ziel der Werbung, aber stellt zugleich ihre Bedeutung als Kommunikationsmedium heraus. Infolgedessen steht DAGMAR nicht allein für den Verkaufsprozess, sondern auch für die gesamte Marketingkommunikation, so dass dieses Modell zu einer festen Größe im Marketing geworden ist.
Die Einfachheit des AIDA-Modells stößt in Zeiten volatiler Märkte und crossmedialer Kommunikations- und Distributionskanäle zunehmend auf Kritik. Die lineare und starr wirkende Abfolge der einzelnen Phasen vernachlässigt die zunehmend dynamischen und variierenden Zusammenhänge von Marketingbotschaften und -absichten im digitalen Zeitalter. Es geht davon aus, dass mit jedem gezielten Reiz eine konkrete Reaktion zustande kommt, was bekanntlich heute nicht mehr der Fall sein muss. Eine weitere Kritik besteht darin, dass im Mittelpunkt des Modells der prozessuale Weg zum Abschluss ist. Der Kunde kommt nur als handelndes Ziel der Begierde vor. In Zeiten von Customer Centricity und Customer Experience bleiben Dialog, Interaktion und Erlebnis auf der Strecke und werden im Rahmen moderner Verkaufspsychologie vernachlässigt.
Akkumulationsstrategie
A wie Akkumulationsstrategie
→Sprinkler-Strategie
Algorithmisierung
A wie Algorithmisierung
Die →Digitalisierung als wohl größter →Megatrend verändert alle Bereiche der Gesellschaft und führt zur Neustrukturierung der gesellschaftlichen, technologischen und sozialen Strukturen. Durch Digitalisierung und Automatisierung bekommen Daten einen bislang nicht gekannten Wert. Algorithmen prägen bereits heute in großem Maß alle gesellschaftlichen Bereiche. Der Trend der Algorithmisierung ist einer der Megatrends und wohl eine der bedeutendsten Entwicklungen in der Data Ära. Durch intelligente Datenformeln lernt die Umgebung auf alle erdenklichen Situationen zu reagieren und Entscheidungen zu fällen. Ob dies rückblickend Fluch oder Segen gewesen sein wird, bleibt wie bei allen Innovationen abzuwarten und ist eine Ermessens- und Abwägungssache. Smarte Formeln leben davon, dass sie mit Daten versorgt werden – und Mensch und Maschine liefert diese bewusst und unbewusst permanent, während sie sich durch die digitale (und zum Teil auch analoge) Welt bewegen. Je mehr Algorithmen über Abläufe, Entscheidungen und Prozesse sowie deren Auswirkungen wissen, desto stärker können sie auf ihr Umfeld reagieren und dieses beeinflussen, manipulieren, optimieren, entlasten und gestalten. Durch die zunehmende Vernetzung der durchstrukturierten Algorithmen im Zusammenspiel mit →künstlicher Intelligenz ergeben sich ungeahnte Möglichkeiten in einer digitalisierten Welt von morgen. Algorithmen nehmen dem Menschen bereits heute unzählige Entscheidungen ab. Der Fokus der Algorithmisierung liegt allerdings nicht mehr darauf, Entscheidungen zu treffen, wenn sie anstehen, sondern smarte Datenformeln innovativ zu nutzen, um zukünftige Entscheidungen zu ermöglichen. Durch den Einsatz von Sensorik werden Computer zunehmend „feinfühliger“ und durch Machine Learning schneller und zunehmend intelligenter. Längst macht der sich selbst optimierende Algorithmus die Runde und wird über die Frage entscheiden, wie viel Annehmlichkeiten auf der einen Seite wie viel Freiheit und Unabhängigkeit auf der anderen Seite noch zulassen wird. Der Umgang mit den →Big Five zeigt, dass der Mensch in jeder Sekunde seines Handelns Daten hinterlässt und somit transparent wird – sei es durch Bewegungsprofile, Bezahldaten, Such-, Informations-, Nutzungs- und Kommunikationsverhalten. Gleichzeitig helfen Algorithmen in einer Welt der Daten- und Informationsüberflutung nicht unterzugehen und den Menschen zu entlasten und seinen Alltag zu optimieren. Der Umgang mit diesen Möglichkeiten wird letztendlich darüber entscheiden, ob die Algorithmisierung Fluch oder Segen sein wird.
Arbeitsplatz der Zukunft
A wie Arbeitsplatz der Zukunft
Begriffe wie Arbeitsplatz der Zukunft, Digital Workplace, New Work oder Mobile Office usw. werden häufig synonym verwendet. Zum Teil berechtigt, da die Grenzen fließend und die dahinterliegenden Beschreibungen nahezu identisch sind, zum Teil völlig unberechtigt, da mit jedem einzelnen Begriff andere Trends und Entwicklungen gemeint sind. In einem Punkt sind sich allerdings alle Zukunftsforscher einig: Daten werden die Arbeitsplätze von morgen bestimmen. In Zeiten von Big Data müssen Daten schneller und effizienter analysiert und verarbeitet werden. Neben Digitalisierung wird auch Automatisierung eine immer größere Rolle spielen. Am digitalen Arbeitsplatz führt kein Weg mehr vorbei. Coronabedingt haben Unternehmen erkannt, dass digitale Arbeitsplätze und damit verbunden agile Arbeitsmethoden mehr Mobilität und Flexibilität gebracht haben und Prozesse schneller und schlanker geworden sind.
Der „Arbeitsplatz der Zukunft“ ist allerdings kein Produkt, das ein Unternehmen in kurzer Zeit einführen kann, sondern eine tiefgreifende Veränderung der Unternehmenskultur mit Auswirkungen auf Arbeitsmethoden und -modelle, kollaborative Zusammenarbeit nach innen und außen, technologische Infrastruktur sowie Unternehmensstrukturen und Geschäftsprozesse. Je nach Perspektive des Einzelnen: Während Arbeitgeber mit der Digitalisierung des Arbeitsplatzes in erster Linie Mobilität, Technologie und höhere Effizienz assoziieren, verbinden Arbeitnehmer dagegen hauptsächlich einen Wandel der Arbeitszeitmodelle (z. B. Homeoffice, remote work, Co-working) sowie flexiblere Arbeitsmethoden und mehr Gestaltungsspielraum. Unternehmen sind gefordert, Arbeitsplatz- und Mobilitätskonzepte für die gesamte Organisation zu entwickeln und hierbei zu berücksichtigen, dass auch der Arbeitsplatz ihrer Kunden zunehmend digital wird.
Deshalb sind feste Büroarbeitsplätze ein Auslaufmodell, auch dann, wenn in der Post-Corona-Zeit Kontaktbeschränkungen wieder komplett aufgehoben sind. Home- und Mobileoffice sowie virtuelle Meetings bestimmen den Arbeitsplatz der Zukunft. Angesichts der Angebote an Desk Sharing oder Co-Working Spaces kann jeder Mitarbeiter jederzeit und an jedem Ort arbeiten. Ein Digital Workplace verändert grundlegend die Arbeitsweise für Unternehmen und ihrer Organisationen. Neben der Eigenorganisation des Mitarbeiters müssen Unternehmen die Sicherheit dezentraler Archivierung, des Informations- und Datenaustausches sowie den standort- und geräteunabhängigen Zugriff sicherstellen.
Je nach Branche und Tätigkeit werden digitale Prozesse wie Automation oder auch künstliche oder kontextualisierte Intelligenz Tätigkeiten übernehmen, so dass Veränderungen auch Wegfall bestehender und die Schaffung neuer Arbeitsplätze bedeutet. Letzteres wird schon synonym als ‚War for Talents‘ bezeichnet, bei dem es nicht nur um die junge Generation geht, sondern um qualifizierte Fach- und Führungskräfte aller Altersgruppen. Einer der Treiber ist der Megatrend Individualisierung. Zukünftig geht es nicht mehr um ein Vertragsverhältnis, bei dem eine Seite ihre Leistung zur Verfügung stellt und der andere das dafür vereinbarte Gehalt zahlt. In Zukunft muss der Job vereinbar sein mit der Sehnsucht nach Selbstbestimmung, maximaler Freiheit, Kreativität und ausreichender Freizeit – und weniger mit den Wünschen und Zielen des Arbeitgebers.
Neben Digitalisierung und Individualisierung müssen Innovationen als nächster Treiber für den Arbeitsplatz der Zukunft genannt werden. Die bisherige Arbeitsumgebung in den meisten Unternehmen war monoton, sachlich sowie funktional und somit demotivierend und völlig ungeeignet, um Teamwork, Kreativität und innovative Ideen zu fördern. Innovative Raumkonzepte reagieren auf Verhaltensmuster von Menschen und unterstützen kreative Potenziale. Daher geht es um mehr als nur um kreative und/oder digitale Gestaltungs- oder Einrichtungskonzepte. Ganzheitliche Raumkonzepte sind der visualisierte und gelebte Ausdruck einer innovationsfreundlichen Unternehmenskultur, um andere Sichtweisen zu entwickeln und kreative sowie innovative Ideen zu kanalisieren, zu strukturieren und zu fokussieren. Hierzu werden innovative Raumkonzepte je nach Funktionalität, Interaktion und Dynamik differenziert. Und egal, ob die flexiblen, innovativen und multisensorischen Räume als Ideenmanufaktur, Kreativwerkstatt, Innovationsschmiede, Innovation Lab oder Creative Space bezeichnet werden – im Endeffekt geht es darum, Kreativität, innovative Ideen, Veränderungsprozesse, Kommunikation und agile Kollaboration zu fördern.
Archetypen
A wie Archetypen
Archetypen sind ein Konzept aus der Psychologie und lassen sich als Urbilder beschreiben. Der Schweizer Psychoanalytiker Carl Gustav Jung identifizierte bereits in seiner Dissertation im Jahre 1902 zwölf vorprogrammierte Verhaltensmuster, die man bei jedem Menschen finden kann, unabhängig von Nationalität, Religion, Alter oder Geschlecht. Er konstruierte daraus 12 sich differenzierende Persönlichkeiten und nannte diese 1934 erstmals „Archetypen“. In den 1960-er Jahren beschrieb der Tiefenpsychologe Fritz Riemann diese in seinem Buch „Grundformen der Angst“ als treibende Kräfte der Persönlichkeitsentwicklung. Auch Abraham Maslow erkannte die archetypischen Verhaltensmuster als hintergründige Kräfte für grundlegende Motivationen und Bedürfnisse von Menschen und verwendete diese in seiner berühmtem Pyramide („Maslowsche Bedürfnishierarchie“). Die amerikanische Marketing-Professorin Jennifer Aaker von der Stanford Universität griff 1997 das Modell auf und ermittelte 15 verschiedene Facetten von Markenpersönlichkeiten. Spätestens das Werk der Markenexperten Margaret Marks und Carol S. Pearson „The Hero and the Outlaw: Building Extraordinary Brands Through the Power of Archetypes“ etablierte 2001 endgültig das Modell der Archetypen international zu einer anerkannten Methode für die strategische Markenpositionierung und -führung, die längst auch für andere Bereiche übernommen wurde.
Archetypen eignen sich hervorragend als Identifikationsfigur, sind universell einsetzbar und haben eine globale Symbolkraft. Sie werden seit Generationen mit ähnlichen Emotionen und Assoziationen in Verbindung gebracht, lassen sich authentisch umsetzen und anschaulich inszenieren. Zudem sind sie zeitlos und liefern bei aller Subjektivität eine objektive Bezugsgröße. Archetypen haben eine hohe Wiedererkennung, geben Orientierung und wirken somit stabilisierend. In der Markenpositionierung und -führung haben sie vor allem eine Aufgabe: sie geben der Markenpersönlichkeit ein spezifisches Profil, eine konkrete Identität. Auch wenn der Archetyp nicht nach außen kommuniziert wird, verursacht er bei dem Empfänger eine unbewusste Markensympathie und intuitives Markenvertrauen.
Um die archetypischen Verhaltensmuster nutzen zu können, übertrug Pearson die vier psychologischen Verhaltensweisen
- Ordnung/Sicherheit/Stabilität/Kontrolle
- Dominanz/Macht/Wandel/Meisterschaft
- Verbindung/Glück/Solidarität/Zugehörigkeit
- Unabhängigkeit/Individualität/Freiheit/Selbstverwirklichung.
von Menschen in ein Koordinatensystem und entwickelte daraus ein archetypisches Positionierungsmodell. Anschließend wurden die archetypischen Verhaltensmuster den Quadranten zugewiesen und ergaben somit die 12 Archetypen. Diese werden als
- der Unschuldige bzw. der Ehrliche
- der Weise
- der Entdecker
- der Rebell
- der Zauberer bzw. der Magier
- der Held
- der Liebende bzw. der Genießer
- der Narr bzw. der Spaßvogel
- der Durchschnittstyp bzw. der Jedermann
- der Betreuer bzw. der Beschützer
- der Herrscher
- der Schöpfer
bezeichnet. Je stärker die Archetypen den psychologischen Verhaltensmustern von Menschen entsprechen, desto weiter außen sind sie zu finden.
Der Unschuldige oder Ehrliche ist neugierig, spontan und optimistisch mit einem gewissen Maß an Naivität sowie moralisch und liebevoll. Seine wichtigsten Werte sind Glück und Vertrauen. Sein höchstes Ziel besteht darin, andere glücklich zu sehen. Ihm ist es wichtig, dazu zu gehören und Teil von etwas zu sein. Er hält sich an Regeln, ist ehrlich und glaubt an das Gute. Der Unschuldige wird als glaubwürdig und verlässlich angesehen. Marken dieses Archetypus liefern eine relativ simple Antwort auf ein Problem und haben eine klare Moralvorstellung. Bekannte Marken dieses Archetyps sind Disney, McDonalds, Tempo, Evian, Hipp und Frosch. Negative Presse wird möglichst vermieden, stattdessen positionieren sich die Marken umweltbewusst und fürsorglich, zeigen lachende Kinder und glückliche Familien.
Dem Weisen geht es vor allem um Wahrheit, Gerechtigkeit und Aufklärung. Mit seiner Intelligenz, seinem Verstand und der Besonnenheit, wahrheitsliebenden Art und analytischen Fähigkeiten möchte er die Welt erkennen und erklären. Sein Ziel ist das Bewahren der Menschheit vor Irrtümern. Er hasst Ignoranz. Daher eignet sich dieser Archetyp vor allem für Forschungseinrichtungen oder Unternehmen, die ihre Kunden zum (Nach)Denken inspirieren. Bekannte Marken sind die Fraunhofer-Gesellschaft, die Stanford und Harvard University sowie Beratungsunternehmen wie McKinsey oder Boston Consulting. Auch Marken wie Stiftung Warentest, TED oder IBM zählen zu diesem Archetyp.
Der Entdecker muss Abenteuer erleben und will die Welt erforschen. Er ist ehrgeizig, unbeirrbar, mutig, probiert Neues aus und legt großen Wert auf Freiheit und Unabhängigkeit. Er meidet Konformität und will nicht eingeengt werden. Sein Ziel ist die Auseinandersetzung mit allem Neuem und ein erfülltes Leben. Der Entdecker ist immer auf der Suche und seine Neugierde kennt keine Grenzen. Bekannte Beispiele sind die Brauerei Becks, Ikea, Jeep und Jack Wolfskin.
Der Rebell bricht Regeln aus tiefster Überzeugung. Seine Philosophie besteht in Disruption, Revolution oder Schock. Der Rebell bricht aus dem Mainstream aus. Er will stören, manchmal auch zerstören. Sein Auftreten ist oft kämpferisch oder verschmitzt. Vor allem, wenn eine junge Zielgruppe erreicht werden soll, ist dieser Archetyp ein wirksames Instrument. Bekannte Beispiele sind Red Bull, Virgin, Tesla, Dell, Harley Davidson oder Saturn. Früher war Apple der Inbegriff des Rebellen.
Der Zauberer oder Magier wird als wissensdurstig, kreativ, visionär und zukunftsweisend wahrgenommen. Er sucht nach Möglichkeiten und findet Lösungen, die die Welt bewegen. Neben Technologieunternehmen werden oft Startups mit dem Zauberer assoziiert. Bekannte Beispiele sind Apple, Google und Tesla, aber auch Dyson und die Walt Disney Company.
Der Held kommt in unterschiedlichen Formen vor. Als Wettkämpfer oder Retter ist er willens- und wissensstark, stolz, selbstbewusst und hilfsbereit. Seine Ziele verfolgt er mit hohem Selbstvertrauen und dem Glauben, das Schlechte zu bekämpfen und das Gute zu schützen. Er kennt seine eigene Stärke, ist kompetent, mutig, umsetzungsstark und verfügt über überdurchschnittliche Fähigkeiten. Dem Held ist auch immer eine Geschichte zugeschrieben, denn ein Held ist nur ein Held, wenn er auf Reise geht und eine Herausforderung annimmt. Bekannte Beispiele sind Porsche, Apple, Nike und Krombacher.
Der Liebende oder Genießer ist leidenschaftlich, verführerisch und steht für Nähe und Geborgenheit. Er gibt anderen das Gefühl, einzigartig zu sein und vermittelt Verständnis sowie Dankbarkeit. Außerdem zeichnet den Archetyp aus, dass er seine Attraktivität steigern möchte, lieben will und geliebt werden möchte. Außerdem steht dieser Archetyp für Genuss. Bekannte Beispiele sind Kaffee- und Schokoladensorten im Premiumsegment sowie die Marke Lenor, Montblanc und Chanel. Eine Untervariante dieses Archetypus ist die Sirene, die Verführerin des Odysseus. Ihr Wesen ist zweischneidig, da ihrer Attraktivität etwas Zerstörerisches anhaftet. Sie ist der Urarchetyp des „Sex Sells“ für alle Männerprodukte vom Auto bis zur Zeitschrift.
Der Narr oder Spaßvogel oder auch Charmeur sucht das Vergnügen und die Freude in allem, was er macht. Ihm ist die Sympathie anderer wichtig, deshalb unterhält er sie. Zudem ist es sein Ziel, andere zu bespaßen. Er lebt im Hier und Jetzt und genießt den Augenblick. Er ist das Gegenteil von Langeweile. Bekannte Beispiele sind BVG, Edeka, AIDA, Media-Markt oder Axe.
Der Jedermann ist das genaue Gegenteil des Helden – der Anti-Held. Er ist unauffällig, bodenständig, angepasst, „08/15“ und angenehm. Seine Empathie, Gradlinigkeit, Zuverlässigkeit und Bodenständigkeit sowie Loyalität zeichnen ihn aus. Er möchte auf keinen Fall auffallen und schon gar nicht anecken oder ausgegrenzt werden. Damit ist dieser Archetyp eine der schwierigsten Herausforderungen in der Markenpositionierung, da diese Marken ohne Ecken und Kanten auskommen müssen und dennoch ein Markenprofil entwickeln müssen. Bekannte Beispiele sind Ikea, Aldi, Coca-Cola, Coop, Rewe und VW.
Der Betreuer bzw. Beschützer wird als selbstlos, einfühlsam und fürsorglich wahrgenommen. Er vermeidet Egoismus, will andere helfen, unterstützen und Schutz bieten und ist verantwortungsbewusst. Ihn treibt die Überzeugung an, dass nur Nächstenliebe das Leben erfüllt. Negative Presse wird möglichst vermieden, stattdessen positionieren sich die Marken bewusst fürsorglich, zeigen lachende Kinder und glückliche Familien. Bekannte Beispiele sind Nivea, Volvo, Tempo, Hipp und die Drogeriemarktkette DM.
Der Herrscher steht für Macht, Autorität und Kontrolle sowie den Erhalt von Sicherheit und Ordnung. Mit großem Verantwortungsbewusstsein strebt er das Ziel einer harmonischen Gesellschaft an. Er versucht, seine Macht für Gutes zu nutzen. Er zeigt seinen Führungsanspruch deutlich und will diesen ausbauen. In übertriebener Form neigt er zu Rechthaberei und hat Angst vor Kontrollverlust. Dieser Archetyp passt zu Markt- und Innovationsführern sowie Premiummarken. Bekannte Beispiele sind Mercedes-Benz, BILD, Microsoft, Rolex und auch Amazon.
Der Schöpfer ist experimentierfreudig und kreativ. Er will seine Visionen in die Tat umsetzen und für die Welt erlebbar machen. Er will eine neue Realität schaffen. Seine Werte sind selbstverwirklichend, innovativ und kreativ. Mittelmäßigkeit vermeidet er, vor Fantasielosigkeit hat er Angst. Bekannte Beispiele sind Hornbach, Adobe, Lego und Apple.
Erfolgreiche Marken mit einem eindeutigen Markenkern sind in der Regel einem Archetypen und nur in Ausnahmen zwei benachbarten Archetypen zuzuordnen und lösen ein spezifisches Markenbild aus.
ARPANET
A wie ARPANET
ARPANET ist ein Akronym und steht für Advanced Research Projects Agency Network. Dieses dezentrale Computer-Netzwerk wurde im Auftrag der US Air Force Ende der 1960-er Jahre unter der Leitung des Massachusetts Institute of Technology und des US-Verteidigungsministeriums entwickelt und sollte verschiedene US-amerikanische Universitäten, die für das Verteidigungsministerium forschten, miteinander verbinden. Technologisch baute es auf ein Konzept von Licklider aus dem Jahr 1962 auf, das unter dem Namen „Intergalactic Computer Network“ bereits viele Ideen enthielt, die das heutige Internet auszeichnet. Die erste Datenübertragung erfolgte am 29. Oktober 1969 zwischen Computern an der University of California (Los Angeles) und dem Stanford Research Institute (San Francisco). Im Jahr 1983 wurden TCP/IP-Protokolle im ARPANET eingesetzt, wodurch das ARPANET ein Subnetz des frühen Internets wurde. Es gilt als der Vorläufer des heutigen Internets.
Artificial Intelligence (AI)
A wie Artificial Intelligence (AI)
Artificial Intelligence ist kein neuer Begriff, auch wenn dieser erst in den letzten Jahren vermehrt verwendet wird. Der Begriff tauchte bereits 1955 auf, als der US-amerikanische Informatiker John McCarthy diesen im Rahmen eines Förderantrags für ein Forschungsprojekt beschrieb. Artificial Intelligence (AI) wird übersetzt mit künstlicher Intelligenz (KI) und beschreibt ein Teilgebiet der Informatik. Dieses beschäftigt sich damit, Aspekte menschlichen Denkens und Handelns mit und durch Maschinen und Computer nachzubilden. Die Automatisierung intelligenten Verhaltens und das Maschinenlernen sind dabei wichtige Bestandteile.
Der Begriff ist schwierig zu definieren, da es nicht einmal eine wissenschaftlich anerkannte Definition von allgemeiner „Intelligenz“ gibt. In der Verwendung des Begriffs künstliche Intelligenz wird in der Regel das Verständnis widergespiegelt, das eine Maschine und Computer das menschliche Denken und Handeln „ersetzen“ sollen. Hierbei unterscheidet die Wissenschaft zwischen einer schwachen KI, die menschliches Denken und Handeln automatisiert und eine starke KI, bei der menschliches Sehen, Hören, Analysieren, Entscheiden und Handeln durch eine Maschine und Computer nachempfunden wird und hierbei intelligent reagiert oder sich wie ein Mensch verhält. Die Vorstellungen einer starken KI in Form emotionaler Intelligenz oder der Fähigkeit, selbst kreativ zu werden, sind aber weiterhin visionär.
Umstritten ist der Versuch, einen Computer so zu programmieren, damit dieser menschliche Entscheidungsstrukturen nachbilden kann. Denn dieser Ansatz dient mehr der Automation im Sinne einer nachgeahmten Intelligenz als dem von autark denkenden und handelnden Maschinen. Hierfür sind Maschinen und Computer mit der Fähigkeit erforderlich, anhand von Daten und mithilfe selbstlernender Algorithmen bestimmte Muster und Gesetzmäßigkeiten zu erkennen und zu analysieren, um daraus Zusammenhänge wie Rückschlüsse und Vorhersagen treffen zu können. Die Schlüsseleigenschaften menschlichen Denkens wie Lernen, Logik und Selbstreflektion werden hierbei künstlich initialisiert und nachgebildet. Trotz einer simulierten Ähnlichkeit unterscheiden sich Kognition und Entwicklungsstadien deutlich vom menschlichen Denken und Handeln. Auch wenn eine Maschine und ein Computer menschliche Gefühle wie Liebe, Hass oder Angst simulieren und täuschend echt wiedergeben können, sind sie dennoch nicht in der Lage, dies zu empfinden.
Zu den bekanntesten Arten künstlicher Intelligenz gehören
- Logical AI, bei der die künstliche Intelligenz bestimmte Situationen aus Daten analysiert und daraus den nächsten „logischen“ Schritt ableitet und eine Entscheidung trifft, die einer definierten Zielerreichung dient
- Search, bei der die künstliche Intelligenz aus einer Vielzahl potenzieller Möglichkeiten den plausibelsten und/oder idealtypischen nächsten Schritt auswählt
- Pattern Recognition, bei der die künstliche Intelligenz verschiedene Muster erkennt und kombiniert und daraus ein ganzheitliches Bild erstellt
Die künstliche Intelligenz wird heute schon in vielen Bereichen eingesetzt wie z. B. in der Forensik, Produktion und Prozesssteuerung, virtuellen Assistenten und Chatbots oder auch digitalen Sprachassistenten.
Augmented Reality (AR)
A wie Augmented Reality (AR)
Der Begriff Augmented Reality („erweiterte Realität”) beschreibt die Wahrnehmung einer um virtuelle und interaktive Elemente erweiterten realen Welt. Dies bedeutet, dass Augmented Reality sowohl die reale als auch virtuelle Welt abwandelt. Im Gegensatz zu Virtual Reality wird bei Augmented Reality keine virtuelle Welt geschaffen, die den Nutzer vollständig umgibt, sondern die physische Welt durch computergenerierte Einzelelemente ergänzt oder erweitert bzw. überlagert. Augmented Reality setzt in erster Linie auf die Interaktion zwischen virtuellen Elementen in einer realen Umgebung, um somit eine Augmentierung hervorzurufen, wodurch der Nutzer eine erweiterte Realität wahrnimmt. Im Idealfall entsteht beim Nutzer der Eindruck, dass die (physisch) realen und die virtuellen Objekte in ein und demselben Raum koexistieren. Man spricht dann auch von der AR-Experience (Begeisterung). Dabei können visuelle, akustische, haptische, gustatorische oder olfaktorische Sinne angesprochen werden. Des Weiteren muss das AR-System interaktiv in Echtzeit funktionieren. Augmented Reality ist nicht nur eine Technologie, sondern sollte auch als Kommunikationsmedium nicht vernachlässigt werden. Im Gegensatz zu Virtual Reality bleibt jedoch der Aspekt der Immersion unberücksichtigt, da bei AR nicht das vollständige Eintauchen in eine virtuelle Welt, sondern das authentische Erweitern der realen Welt im Vordergrund steht.
Damit eine Augmented Reality Anwendung eine Verbindung zwischen realer und virtueller Welt herstellen kann, muss sie zunächst eine Lokalisierung durchführen. Dabei handelt es sich nicht zwingend um eine GPS-Lokalisierung, sondern kann auch mittels QR-Code ähnlichen Elementen (genannt Marker) erfolgen.
Autonomes Fahren
A wie Autonomes Fahren
Autonomes Fahren ist eines der großen →Megathemen der Automobilindustrie. Es beschreibt das vollständig automatisierte Fahren eines Fahrzeugs ohne aktiven Fahrer und darf nicht mit assistiertem, automatisiertem oder teilautonomen Fahren gleichgesetzt werden. Genau genommen definiert autonomes Fahren im engeren Sinne nur den höchsten Automatisierungsgrad nach Level 4 und 5. Der Weg dorthin wird als automatisiertes oder pilotiertes Fahren bezeichnet, bei dem verschiedene Assistenzfunktionen den Antrieb, die Lenkung und die Bremse steuern bzw. in diese Systeme situativ und in Echtzeit eingreifen. Autonomes Fahren setzt verschiedene Arten von Assistenzsystemen voraus, die miteinander kommunizieren und die Funktion und Sicherheit autark gewährleisten. Hierzu gehören u. a. Geschwindigkeits-, Brems-, Stau-, Spurhalte-, Abbiege- und Einparkassistenten. Hinzu kommen Kameras und Mikrofone sowie unterschiedliche Sensorsysteme (z. B. Laser-, Ultraschall-, Radar- und Lidarsensoren für die Abstandsmessung). Die Technologien für das autonome Fahren sind eng mit der Konnektivität verbunden.
Die SAE (Society of Automotive Engineers) hat fünf Level des automatisierten bzw. autonomen Fahrens definiert. Diese Einteilung hat sich weltweit in der Automobilindustrie etabliert. Beim Level Null lenkt, beschleunigt und bremst der Fahrer selbst („Driver only“). Der Level 1 definiert einen assistierten Modus. Das Fahrzeug verfügt über einzelne unterstützende Systeme wie z. B. das Antiblockiersystem (ABS), Elektronische Stabilitätsprogramm (EPS) oder der Abstandsregeltempomat (ACC), die situativ selbsttätig eingreifen. Beim Level 2 übernehmen Assistenten teilautomatisierte Aufgaben wie z. B. die adaptive Geschwindigkeitsregelung, den Spurwechsel-, Stau- oder Einparkassistent sowie die automatische Notbremsung. Der Fahrer behält aber die Hoheit über das Fahrzeug und die volle Verantwortung. Von Level 3 ist die Rede, wenn das Fahrzeug streckenweise selbsttätig beschleunigen, bremsen und lenken kann (bedingte Automation). Das Fahrzeug führt selbständig Funktionen aus wie z. B. das Auslösen des Blinkers, den Spurwechsel und das Spurhalten. Der Fahrer muss das System nicht dauernd überwachen. Bei Bedarf fordert das System den Fahrer innerhalb einer Vorwarnzeit auf, die Kontrolle wieder zu übernehmen. Im Level 4 wechselt das Fahrzeug von dem hoch automatisierten in den autonomen Betrieb. Der Fahrer hat allerdings die Möglichkeit, einzugreifen und das System zu „überstimmen“. Gleiches gilt, wenn das System die situativen Fahraufgaben nicht mehr bewältigen kann. Dann übernimmt der Fahrer wieder die Führung. Der Level 5 definiert den vollautomatisierten, autonomen Betrieb des Fahrzeugs ohne die Möglichkeit (und Notwendigkeit) des Eingreifens durch den Fahrer. Der Fahrer übernimmt lediglich die Festlegung des Ziels und das Starten des Systems. Das Fahrzeug kommt ohne Lenkrad und Pedale aus.
Experten sind sich aktuell noch uneinig, wann autonomes Fahren die technische Reife zu 100% erreicht haben wird. Während das Fraunhofer-Institut IAO diesen Zeitraum für 2025 angab, prognostizierte die Deutsche Akademie der Technikwissenschaften (acatech) diesen Zeitraum nicht vor 2030. Angaben der Automobilhersteller sind dies bzgl. widersprüchlich. Beim autonomen Fahren mischen nicht nur die klassischen Automobilhersteller und ihre Zulieferer mit. Start-ups, Tech-Unternehmen und Elektronik-Konzerne prägen den Entwicklungsstand maßgeblich mit und sind dabei, sich Marktanteile in diesem Zukunftssegment zu sichern. Neben den Schwergewichten Google, Apple und Amazon sind vor allem die Unternehmen Cruise, Waymo, Mobileye, Aurora und Baidu zu nennen, die bei der Entwicklung so genannter Robotaxis weltweit als führend gelten.
Neben den technischen Herausforderungen vor allem in stark befahrenen Ballungsgebieten und schlecht einsehbaren Verkehrssituationen sind vor allem noch rechtliche, versicherungstechnische und ethische Fragestellungen beim autonomen Fahren zu klären. Erste rechtliche Rahmenbedingungen zum automatisierten Fahren in Deutschland wurden bereits 2017 geschaffen. Hierbei ging es im Wesentlichen um veränderte Rechte und Pflichten des Fahrers während ein Fahrzeug automatisiert fährt. Im Juli 2021 wurde ein Gesetz verabschiedet, mit dem die Zulassung von autonomen Fahrzeugen (Stufe 4) in festgelegten Bereichen möglich ist und im Juli 2022 die entsprechende Verordnung, in der die Details geregelt sind. Bei allen offenen Fragestellungen und Herausforderungen für die Versicherungsbranche haben einige Versicherer (u. a. die Allianz) bereits signalisiert, entsprechende Lösungen anbieten zu können. Allerdings benötigen die Versicherer für die Schadensabwicklung den Zugriff auf die Daten von Sensoren, was lt. Gesamtverband der Deutschen Versicherungswirtschaft (GDV) in Europa noch nicht geregelt ist. Autonomes Fahren stellt nur auf den ersten Blick für Versicherer ein erhöhtes Risiko dar. Mehrere Studien konnten belegen, dass das Fahren durch mehr Assistenzsysteme sicherer wird und somit zu weniger Fahrzeugschäden und einem Rückgang der Entschädigungsleistungen der Assekuranzen führen wird.
Deutlich komplexer sind ethische Fragen im Zusammenhang mit dem autonomen Fahren. Auch mit dem Einsatz hoch moderner Assistenzsysteme wird es Situationen geben, in denen Unfälle mit Personenschäden unvermeidbar sind. Ein menschlicher Fahrer würde in einer plötzlichen Situation, wenn z. B. ein Kind auf die Straße läuft, instinktiv reagieren – eine Fähigkeit, die der →künstlichen Intelligenz auf Jahre noch abgesprochen werden kann. Davon abgesehen, muss in diesen Situationen blitzschnell reagiert werden – eine Fähigkeit, bei denen künstliche Intelligenz dem Menschen überlegen ist. Deshalb müssen im Vorfeld Regeln definiert werden, wie sich ein autonomes Fahrzeug in welcher Situation zu verhalten hat. Aus diesem Grund hat eine Ethikkommission der Bundesregierung im Jahr 2017 mit dem Namen „Automatisiertes und vernetztes Fahren“ bereits Leitlinien erarbeitet. Eine Kernaussage besagt, dass bei „unausweichlichen Unfallsituationen jede Qualifizierung nach persönlichen Merkmalen wie z. B. Alter, Geschlecht, körperliche oder geistige Konstitution strikt untersagt ist“. Auch eine „Aufrechnung von Opfern“ ist nicht erlaubt. Mehrere Studien konnten belegen, dass die Fehlerhäufigkeit der künstlichen Intelligenz bei „moralischen Fragen“ besonders hoch ist.
Bei Prognosen über das autonome Fahren wird ein großer Fokus auf die technologischen Entwicklungen gelegt. Die Akzeptanz der Nutzer wird noch zu wenig hinterfragt. Eine Studie des Prognos-Forschungsinstituts belegt, dass sich autonomes Fahren nur sehr langsam durchsetzen wird. Das liegt zum einen darin, dass neue Fahrzeuge durchschnittlich 15 bis 20 Jahre im Einsatz sind und sich deshalb diese neue Technologie nur ganz allmählich im Markt durchsetzen wird. Die Studie geht davon aus, dass der Anteil autonom fahrender Autos im Jahr 2050 bei ca. 70 Prozent liegen wird. Zum anderen muss das Vertrauen in autonome Fahrzeuge erst wachsen.
B wie BaaS (Backend-as-a-Service)
B wie BaaS (Backend-as-a-Service)
Der Begriff „Backend as a Service“ (BaaS) beschreibt die Bereitstellung einer gehosteten Backend-Infrastruktur. BaaS ist ein Service des →Cloud-Computing und bietet Entwicklern die Möglichkeit, schnell und einfach ein individuelles Backend konfigurieren zu können. Somit müssen diese nicht mehr die komplette Infrastruktur für eine Web-Anwendung selbst programmieren und können sich komplett auf die Gestaltung des Frontends konzentrieren. Ein weiterer Vorteil liegt darin, dass die Wartung des Backend entfällt. Diese liegt beim Anbieter des Service. Die Funktionsweise des BaaS-Anbieters gleicht dem Hosting einer Website. Er liefert die Anwendung mit unterschiedlichen Funktionen, so dass Entwickler die verfügbaren Daten zu einem individuellen Backend zusammenführen können. Auf dieses greifen die Entwickler über eine vom BaaS-Anbieter bereitgestellte Schnittstelle mit Hilfe von APIs oder einer REST-Schnittstelle zu. BaaS-Lösungen enthalten in der Regel eine Vielzahl unterschiedlicher Funktionen wie z. B. das Management der Datenbanken, automatische Updates des Backends, Nutzerauthentifizierung oder Social Log-Ins. Wie bei …as-a-Service-Angebote üblich zahlen Nutzer nur für die Kontingente, die in Anspruch genommen werden. Skalierungsmöglichkeiten sind bei Web-Anwendungen ein entscheidender Faktor, der großen Einfluss auf die Kosten haben kann. Hier bietet Backend as a Service den Vorteil, da die Skalierung wie auch die Handhabung beim BaaS-Anbieter liegt bzw. diese vom Anbieter vorgegeben wird.
B wie BABOK
BABOK ist ein Akronym für Business Analysis Body of Knowledge (vollständig, einheitlich, richtig, umsetzbar, änderbar, eindeutig und testbar).
B wie Backlog
Der Begriff Backlog wird übersetzt mit Rückstand oder Rückstau, Nachholbedarf oder Auftragsüberhang und beschreibt eine Sammlung von Dingen, insbesondere unvollständige Arbeit oder Angelegenheiten, die erledigt werden müssen. Diese Liste von Aufgaben bzw. Anforderungen, die von einem Team abgearbeitet bzw. realisiert werden sollen, ist allerdings kein Lasten- oder Pflichtenheft. Denn gegenüber einer statischen to-do-Liste früherer Prägung setzt agiles Projektmanagement auf flexible und dynamische Methoden, um auf Veränderungen iterativ reagieren und neue Priorisierung vornehmen zu können. Die unterschiedlichen Arten von Einträgen werden Backlog Items genannt. Hierzu gehören u. a. die funktionalen Anforderungen, Qualitätsanforderungen, User und Job Story, Use Case und andere. Idealerweise enthält jedes Item eine Beschreibung, eine Priorität, eine Aufwandsschätzung und einen messbaren Kundennutzen. Je höher die Priorität eines Items ist, umso genauer muss es spezifiziert werden. Backlogs werden in drei Arten unterschieden:
- →Product Backlog,
- →Release Backlog und
- →Sprint Backlog.
Sind im Rahmen einer Entwicklung verschiedene Teams involviert, wird mit Team Backlogs gearbeitet und die Items entsprechend auf die jeweiligen Team verteilt. Ist nur ein Team involviert sind Release und Team Backlog identisch. Der aktuelle →Scrum Guide kennt nur die beiden Begriffe Product und Sprint Backlog.
B wie Balanced Innovation Scorecard
→Innovation Balanced Scorecard
B wie Barcamp
Ein Barcamp (nicht zu verwechseln mit einem →Basecamp) wird auch als Unkonferenz, Mitmach-Konferenz oder Ad-hoc-Nicht-Konferenz bezeichnet, da es sich von klassischen Veranstaltungen deutlich unterscheidet. Während bei herkömmlichen Konferenzen vom Veranstalter Sprecher gebucht werden, gibt es auf Barcamps nur Teilnehmer. Es handelt sich um ein offenes Veranstaltungsformat mit offenen Workshops, deren Inhalte und Ablauf von den Teilnehmern zu Beginn der Veranstaltung selbst entwickelt und im weiteren Verlauf eigenverantwortlich gestaltet werden. Barcamps sind eine Form der Gruppenmoderation. Sie haben Ähnlichkeiten mit →Open Space, sind aber lockerer organisiert. Ein Barcamp besteht aus Vorträgen und Diskussionsrunden (so genannte Sessions), die zu Beginn des Barcamps auf Whiteboards, Metaplänen oder Pinnwänden – in so genannten Grids (Stundenplan) – durch die Teilnehmer selbst koordiniert werden. Alle Teilnehmer sind aufgefordert, selbst einen Vortrag zu halten oder zu organisieren. Das Motto eines Barcamp lautet: Geben und Nehmen, die Philosophie stellt alle auf Augenhöhe. Barcamps dienen dem inhaltlichen Austausch und der ergebnisoffenen Diskussion, können aber auch bereits am Ende der Veranstaltung konkrete Ergebnisse vorweisen. Diese können, falls gewünscht, im Rahmen des so genannten Konvergenzprozesses gewichtet und in einen Maßnahmenplan gebracht werden. Als →Open Innovation Veranstaltung bieten Barcamps viel Raum für unkonventionelle und innovative Wissensformate. Besonders typisch ist, dass die Veranstaltungen kostenlos sind und man in der Regel ohne Einladung teilnehmen kann. Ein wesentliches Element ist die soziale und fachliche Vernetzung der Teilnehmer – auch über das Barcamp hinaus – und der Spaßfaktor.
B wie Basecamp
Ein Basecamp (nicht zu verwechseln mit einem →Barecamp) ist ein spezielles Workshop-Format, das in der Regel eingesetzt wird, wenn eine Gruppe ausgewählter Teilnehmer für ein bestimmtes Thema (Teambuilding, Führungskräftecoaching, Managementklausur, Kick-off z. B. im Rahmen von Innovationsprojekten) sensibilisiert werden soll. Die auch als Smart Innovation Workshop bezeichnete Veranstaltung findet außerhalb des Unternehmens statt und wird häufig mit einem Rahmenprogramm verbunden. Das Ziel ist, die Teilnehmer aus ihrer gewohnten Routine heraus zu nehmen und abseits des Tagesgeschäfts die richtige Atmosphäre zu schaffen, damit Kreativität, innovative Ideen und freie Gedanken gefördert werden. In einem Basecamp werden oft mehr Ideen kreiert, als sonst im ganzen Jahr „nebenher“.
B wie Basistechnologie
→Technologietyp
B wie Baudrohne
In der Bauwirtschaft finden →Drohnen zunehmend ihre Anwendung in der Planung, in der Ausführung und in der Gebäudeunterhaltung. So werden Drohnen u. a. eingesetzt für die Inspektion und Überwachung, Bestandsaufnahme und Vermessung, Bauwerksprüfung und Baudokumentation. Baudrohnen werden vor allem in Bereichen eingesetzt, die für den Mensch nur schwer oder mit hohem Aufwand zugänglich sind. Außerdem übernehmen sie zunehmend gefährliche Aufgaben, die für den Mensch mit einem gewissen Risiko verbunden sind. Sie liefern spezifische und hoch detaillierte Daten zu einem Bruchteil der bisherigen Kosten und in deutlich kürzerer Zeit. Weitere Anwendungen sind die Erstellung von 3D-Modellen oder auch der Einsatz für Marketing- und Werbezwecke.
B wie Bauen 4.0
Die Digitalisierung ist längst auch in der Bauwirtschaft angekommen. Bauen soll in Zukunft digitaler, modularer und stärker automatisiert werden. Der Zusatz „4.0“ steht stellvertretend für eine neue, durch Digitalisierung, Sensorik und Robotik geprägten Stufe industrieller Entwicklungen in der Baubranche. Mit neuen Technologien sollen die verschiedenen Phasen im Lebenszyklus eines Bauwerks wie Planung, Herstellung und Nutzung sowie neu auch dem Rückbau zukünftig auf ein und derselben Informationsgrundlage bearbeitet werden: dem digitalen Gebäudepass, der in seiner Ausprägung das digitale Gebäudemodell – auch als BIM (Building Information Modeling) bezeichnet – durch zusätzliche Informationen erweitert. In der Bauwirtschaft gilt BIM als Methode der Zukunft für Planung und Abwicklung von Bauvorhaben und somit zentrales Element der Digitalisierung der Branche. Die Idee dahinter beschreibt eine geschlossene, digitale Prozesskette, in der sämtliche Phasen im Bauprozess transparent und miteinander verknüpft sind. Darüber hinaus gehören industrielle Vorfertigung und modulare Bauweise genauso zum Bauen 4.0 wie Automatisierung, Robotik und technische Entwicklungen wie z. B. das 3D Druckverfahren von Gebäuden.
B wie Bauroboter
Die interdisziplinäre Wissenschaft der Roboter ist die →Robotik. Der Begriff stammt ursprünglich vom tschechischen Wort Robota ab und bedeutet so viel wie „Arbeit“. Heute wird ein Roboter als ein automatisch gesteuertes, frei programmierbares Mehrzweckgerät bezeichnet, mit dem Material, Werkstücke, Werkzeuge oder Spezialgeräte bewegt werden kann. Der frei programmierbare Bewegungsablauf in drei oder mehr Achsen macht ihn für verschiedenste Aufgaben einsetzbar. Roboter werden in der Automatisierungstechnik entweder an einem festen Ort oder beweglich angeordnet. Aufgrund der Vielzahl unterschiedlicher Anwendungen und Einsatzgebiete werden Roboter anhand von fünf spezifischen Merkmalen (Aufgabe, Einsatzgebiet, Morphologie, Mobilität und Autonomie) unterschieden. In der Baurobotik werden drei Kategorien unterschieden:
- Teleoperierte Bauroboter (nicht autonom wie z. B. Bagger)
- Programmierbare Bauroboter (computergesteuert und z. B. mit Sensoren ausgestattet wie z. B. 3D-Baggersteuerung)
- Intelligente Bauroboter (halb- oder vollständig autonom, zum Teil unter Einsatz von künstlicher Intelligenz)
Zur dritten Kategorie gehören auch Bauroboter, die wiederkehrende Aufgaben wie Maurer- oder Schweißerarbeiten übernehmen. Diese werden als Single-task Construction Robots (STCRs) bezeichnet. Aktuell werden Bauroboter hauptsächlich noch in der digitalen Vorfertigung eingesetzt oder in hybriden Umgebungen wie z. B. dem →3D Druck. Zukünftig geht es darum, durch so genannte Exoskelette die Vorteile menschlicher Arbeitskraft und Roboter-gesteuerter Automation auch in der Baubranche miteinander zu verknüpfen. Durch Machine Learning werden diese Exoskelette künftig auch Daten im Arbeitseinsatz erfassen und analysieren. Beispiele für automatisierte und halbautomatische Bauroboter sind z. B. „Boston Dynamics Spot“ (ein mobiler Roboter für Inspektionsaufgaben auf dem Gelände einer Baustelle), „Dusty Robotics FieldPrinter“ (ein mobiler Roboter, der Grundrisse mithilfe von BIM-Daten in Originalgröße auf das Geschoss druckt), „Doxel“ (ein mobiler Roboter, der auf der Baustelle den Baufortschritt abscannt und mit dem BIM-Modell abgleicht) oder „Hilti Jaibot“ (ein mobiler Roboter für Bohr- und Montagearbeiten insbesondere Überkopfarbeiten). Thyssen Krupp Elevator hat z. B. eine Robotics-Interface-Plattform geschaffen, mit der Roboter Aufzüge benutzen und sich frei durch ein Gebäude bewegen können und dies auch zwischen unterschiedlichen Stockwerken. In wie weit humanoide Bauroboter den Handwerker auf der Baustelle ablösen und eins zu eins ersetzen wird, bleibt abzuwarten. Aktuell sieht es danach nicht aus.
B wie Baustelle der Zukunft
Mit dem Center Construction Robotics (CCR) entsteht auf dem Campus der RWTH Aachen die Baustelle der Zukunft mittels Digitalisierung. Auf der Referenzbaustelle werden neue Technologien und Automatisierungen sowie neue Bauprozesse, Bauprodukte, vernetzte Maschinen, der Einsatz von Robotern, Softwarelösungen sowie Lehr-, Arbeits- und Kommunikationskonzepte unter realen Baustellenbedingungen getestet. In dem Reallabor geht es von der industriellen Vorfertigung von Bauelementen bis hin zur automatisierten Baustelle. Das Ziel ist der Aufbau eines weitreichenden europäischen sowie regionalen Netzwerks für Forschungs-, Industrie- und Lehrkooperationen im Bereich der Transformation des Bauens. Somit können die Forschungserkenntnisse und Lehrkonzepte direkt in die Wirtschaft einfließen und gezielte Entwicklungs- und Weiterbildungsprojekte angeboten werden.
B wie Baustoffe der Zukunft
Innovative Baustoffe der Zukunft sind über den gesamten Produktlebenszyklus umweltfreundlich, intelligent und vernetzt, leistungsfähig und lange haltbar, wiederverwendbar oder hochwertig recycelbar und dazu frei von Schadstoffen. Sie sind der Schlüssel für klimaneutrales, modulares und wohngesundes Bauen und die Antwort auf Verknappung der Ressourcen wie Rohstoffe, Fachkräfte usw. Nachfolgend sollen einige interessante und vielversprechende Entwicklungen vorgestellt werden.
Auch wenn es um die Nanotechnologie ein wenig ruhiger geworden ist, gehören nanoskalierte Baustoffe immer noch zu den interessanten Entwicklungen, deren Potenzial noch lange nicht abgeschlossen ist, sei es in Form zugegebener Additive in Nanogröße oder durch die physikalisch-chemische Veränderung der nanoskaligen Oberfläche. Eine interessante Entwicklung in dem Zusammenhang ist Aerographit, was derzeit als leichtester Baustoff der Welt gilt und bis zu 75 Mal leichter ist als Styropor. Er besteht aus Kohlenstoffröhrchen, die auf Nano- und Mikroebene ineinander verwoben sind. Dennoch hält das Material hohen Druck- und Zugbelastungen stand. Außerdem ist Aerographit elektrisch leitfähig, verformbar und undurchsichtig.
Intelligente Fenster nutzen die Nanotechnologie, in dem die hindurchgelassene Menge an Licht und Wärme vom Nutzer über eine App gesteuert werden kann. Die Fenster selbst bestehen aus transparenten Solarpaneelen, über die das Gebäude mit Energie versorgt wird.
Seit einigen Jahren werden nanoskalierte Aerogele auf Silicatbasis zur thermischen Isolierung von Gebäuden eingesetzt. Die aus dem Nanogel hergestellten Beschichtungen weisen eine bis zu 3 Mal niedrigere Wärmeleitfähigkeit als Luft auf und eignen sich als Alternative zu klassischen Wärmedämm-Verbundsystemen im Rahmen der energetischen Gebäudesanierung.
Eine andere Entwicklung ist ein lichtdurchlässiger Faserbeton, der für bis zu 20 cm dicke, transluzente Wände verwendet werden kann. Die Wände bestehen aus einer homogenen Verbindung aus Glasfasern und einem sehr feinkörnigen Beton, der die hohe Lichtdurchlässigkeit sicherstellt.
Beton ist nach wie vor der am meisten genutzte Baustoff der Welt, auch wenn er Risse bekommt, sobald er chemischen Substanzen oder Wasser ausgesetzt ist. Seit einigen Jahren werden spezielle Bakterienstämme eingesetzt, die Calciumcarbonat produzieren, sobald sie mit Wasser in Kontakt kommen. Infolgedessen beginnen diese Mikroorganismen selbständig mit der Reparatur und dem Verschluss der feinen Risse. Experten gehen von einer Haltbarkeit selbstheilender Betone von 200 Jahren aus.
Eine der vielversprechendsten Entwicklungen ist Carbonbeton. Hierbei ersetzt der Hightech-Werkstoff Carbon die schweren Stahlstäbe und -matten im Stahlbeton. Der Verbundwerkstoff aus Beton und Kohlenstofffasern (Carbon) ist 4 Mal leichter, 4 Mal dichter und 5 bis 6 Mal tragfähiger. Dadurch werden Betonwände schlanker und benötigen weniger Material. Nach Angaben der Forscher können bei biegebeanspruchten Bauteilen wie Träger oder Unterzügen bis zu 50% Beton eingespart werden. Ebenfalls um 50 % reduziert sich der CO2-Ausstoß. Carbonbeton verfügt über mehr Festigkeit, Haltbarkeit und Leichtigkeit als herkömmlicher Beton und rostet nicht. Da sich diese flexible Bewehrung fast allen Formen anpassen kann, sind auch filigrane Bauten möglich. Allerdings werden herkömmliche Carbonfasern aus Erdöl gewonnen. Forscher arbeiten bereits daran, diese Faserbewehrung in Zukunft stattdessen aus nachwachsenden Rohstoffen wie Lignin, Flachs oder mithilfe von Algen aus Kohlendioxid herzustellen.
Eine ähnlich interessante Innovation ist Holzbeton, bei dem der Kies- und Sandanteil durch feingeschliffenes Holz ersetzt wird. Der Volumenanteil des Sägemehls beträgt bis zu 50%, so dass Holzbeton bedeutend leichter ist als herkömmlicher Beton und dennoch genauso fest und zudem feuerfest.
Die Menge an Schadholz ist in den letzten Jahren massiv angestiegen und bietet nun den Ausgangspunkt für die nächste innovative Idee. Bei dieser wird das Schwach- und Schadholz in Steinform gepresst, aufeinandergestapelt und mit Holzdübeln verbunden, so dass auf künstliche Verbindungsmittel verzichtet werden kann.
Hoch belastbare und gleichzeitig dünne Bodenelemente mit einer Dicke von nur 2 cm aus einer betonähnlichen Spezialmischung kommen ohne eine zusätzliche Stahlbewehrung aus und weisen eine Gewichtsreduktion von 70% auf. Die Ursache liegt in gewölbten und geometrisch geformten Platten.
Neu sind auch sog. Biokunststoffe. Einer davon übertrifft mit seiner Biegesteifigkeit und Zugfestigkeit selbst Stahl und Spinnenseide, die bisher als das stärkste biologische Material galt. Das ultrastarke Material besteht aus Zellulose-Nanofasern und ist biologisch abbaubar. Seine besonderen Eigenschaften erhält der Biokunststoff durch ein neues Produktionsverfahren, bei dem viele kleine Fasern zusammengepresst werden (hydrodynamische Fokussierung).
Die Bedeutung und der Einsatz natürlicher und nachwachsender Rohstoffe wird in den nächsten Jahren zunehmen. Neben Holz gehört hierzu auch Hanf, der nicht nur als Bewehrung sondern auch für hoch wärmedämmende Steine eingesetzt wird. Hanfsteine absorbieren nicht nur Feuchtigkeit, sondern auch Lärm. Eine ähnliche Entwicklung sind Wollziegel, die aus Lehm, Wolle und einem natürlichen Polymer aus Meeresalgen bestehen. Nach Angaben der Forscher sind diese Steine bis 40% kältebeständiger als konventionelle Ziegel.
Pilze sind Grundlage für die nächste Innovation. Hierbei wird das Myzel, die fadenförmigen Zellen des Pilzes, mithilfe eines speziellen Verfahrens zu einem Dämmstoff weiter verarbeitet. Nach Angaben des Herstellers ist der Bio-Dämmstoff nicht nur leicht, sondern auch biologisch abbaubar, feuerfest und gesundheitlich unbedenklich.
Eine ähnliche Entwicklung basiert auf expandierten Maiskörnern, besser bekannt unter dem Begriff Popcorn. Aufgrund der geringen Wärmeleitfähigkeit eignet sich das Material besonders gut als Dämmung. Der größte Vorteil der Spanplatten, die aus einem Drittel Popcorngranulat und zwei Drittel Holzspänen bestehen, ist das geringe Gewicht.
Aus dem Meer kommt möglicherweise der Ersatz für Steinwolle. Abgestorbenes Seegras eignet sich als Dachdämmung, als Kerndämmung im Mauerwerksquerschnitt oder in Form von Platten bei einem WDVS. Die Alternative ist aufgrund des hohen Salzgehaltes weniger leicht entflammbar als herkömmliche Dämmstoffe, hat vergleichbare Dämmwerte und ist resistent gegen Fäulnis und Schädlinge. Hinzu kommt, dass Fasern aus Seegras relativ viel Feuchte aufnehmen kann, ohne an Dämmwirkung und Massenvolumen zu verlieren.
Kartoffelschalen sind Ausgangsprodukt, einerseits für spezielle Bauplatten und andererseits als Zusatz in Beschichtungen und Belägen, um diesen nicht nur die nötige Konsistenz zu verleihen, sondern um das potenziell hochgradig krebserregende Bindemittel Formaldehyd zu ersetzen.
Diese Auflistung erhebt nicht den Anspruch auf Vollständigkeit. Weitere Ansätze wie z. B. Urban Mining mit Rezyklaten und dgl. würden den Rahmen an dieser Stelle sprengen. Die Baustoffindustrie braucht mehr Kreativität für nachhaltige und ganzheitliche Lösungen. Hierzu gehören neben Hightech-Materialien und smarten Baustoffen auch integrative Systeme und innovative Technologien. Besonders spannend ist die Entwicklung des „idealen“ Baustoffs, der auf ein KI-gestütztes Datenmodell die Bedürfnisse des Bauherren von morgen abdecken soll.
B wie Berufe der Zukunft
Die Transformation der Wirtschaft sowie permanente Veränderung von Kundenbedürfnissen und Angeboten wird zwangsläufig neue Berufe hervorbringen. Einige von ihnen gibt es bereits in ersten Tendenzen, andere wiederum werden in den nächsten Jahren erst entstehen. Nachfolgende Beispiele stehen symbolisch für zukünftige Berufe im Marketing und der Digitalisierung:
- Der Data Ethnographer arbeitet mit Echtzeitdaten an allen digitalen Touchpoints, um Erkenntnisse über Kunden zu gewinnen und Empfehlungen für Kampagnen, Kanäle und Formate für die gesamte Marketingorganisation abzugeben. Spezialisierte Datenethnographen werten nicht einfach „nur“ Zahlen aus. Ihre besondere Kompetenz besteht darin, in diesen Daten herauszulesen, wie Kunden mit Marken interagieren. Hierbei sind es oftmals nur Nuancen, um zu erkennen, wie Kunden „ticken“. Erfahrene Datenethnographen konzentrieren sich in einer zunehmenden Datenexplosion und Vielfalt unstrukturierter und unrelevanter Informationen auf das Wesentliche. Ihre Erkenntnisse sind Inspiration für neue Ideen und völlig neue Vermarktungsperspektiven und Marketingstrategien.
- Der Purpose Planner erarbeitet eine Mission und Vision und fokussiert sich hierbei auf den Beitrag des Unternehmens für die Gesellschaft allgemein sowie speziell für Kunden und potenzielle Mitarbeiter. In seiner Betrachtung spielt die Differenzierung aus Kundensicht eine deutlich größere Rolle. Die Aufgabe besteht aber nicht nur in der Konzeption und Erstellung, sondern der permanenten Weiterentwicklung und in der Funktion als Kommunikationskatalysator im gesamten Unternehmen. Purpose Planner identifizieren soziale Ursachen und fördern den Fluss von Informationen, Ideen, Inhalten und Einfluss mit internen und externen Stakeholdern. Ihre Rolle wird langfristig eine positive Einstellung in Bezug auf das Unternehmen, seiner Marke und die von ihm angebotenen Produkte und Dienstleistungen hervorrufen. Grundlage hierfür ist, dass immer mehr Kunden Geld, Zeit und Loyalität in Marken investieren, mit denen sie sich identifizieren können und die für die gleichen Werte stehen. Der Purpose Planner ist der Schlüssel zur Schaffung dieses Bewusstseins.
- Die Sicherstellung von Qualität, Authentizität und Konsistenz von Content in Richtung sämtlicher Streaming-Geschichten und Narrative über eine Vielzahl von Kanälen, einschließlich Filmen, TV-Serien, Podcasts, Chatbots und Videospielen ist die Aufgabe des Master Storytellers. KI wird bereits verwendet, um Werbung zu erstellen, Advertorials zu schreiben und Dialoge in Chatbots zu generieren. Der Master Storyteller stellt sicher, dass auf allen Formaten die gleichen (nicht dieselben) Inhalte kommuniziert werden.
- Loyalty Engineering ist ein neues Kompetenzangebot im Marketing und zielt darauf ab, Kunden in ihren unternehmerischen Erwartungen stärker abzuholen und hierbei in Einklang mit den Marken zu bringen. Das Aufgabengebiet des Loyalty Engineer besteht darin, Angebote zu kreieren, mit denen Kunden Geld verdienen können. Sie hören auf die Bedürfnisse von Kunden, identifizieren diese und setzen ihre Erkenntnisse z. B. in wertschöpfende Online-Tutorials, Events oder exklusive Kundenbindungsprogramme um. Dies schafft langfristige Loyalität zu Unternehmen, Marken, Produkten und Dienstleistungen.
- Die Aufgabe von Neuro-A/B-Testern besteht darin, bei kommerziellen Transaktionen zu helfen, Daten über Erlebnis- oder Sinneskampagnen zu sammeln. Marketingorganisationen können aus diesen ersten Eindrücken viel lernen und durch Überwachung und Auswertung von Gehirnsignalen (Opt-In) beurteilen, wie Kunden z. B. auf ein Produkt, eine Dienstleistung oder Angebote reagieren. Klassische Umfragen und Marktforschung in Fokusgruppen funktioniert immer seltener. Die Ergebnisse der Neurowissenschaften sind in der Beurteilung des Kundenverhaltens deutlich zuverlässiger. Sie nehmen die menschliche Fehlbarkeit aus der Gleichung und stellen objektive und reproduzierbare Daten aus der qualifizierten Hirnforschung zur Verfügung. Neuro-A/B-Tester analysieren die Gehirnaktivität von Kunden bei der Durchführung von experimentellen oder sensorischen Kampagnen (z. B. am Point of Sale). Durch die Arbeit der Hirnforscher kann die Customer Journey noch weiter optimiert, personalisiert und perfektioniert werden.
- Seit einigen Jahren werden personalisierte Beschaffungsdienste auf der Basis von KI und Algorithmen angeboten, die Kunden mit einer Vielzahl von Marken, Produkten und Angeboten durch Drittanbieter verbinden. Bots übernehmen die Arbeit (und das Denken der Kunden). So gibt es z. B. die Modemarke, die mithilfe von KI einmal im Monat eine personalisierte Schachtel mit Kleidung ausliefert, damit der Kunde sie zu Hause ausprobieren kann. Gleiches gibt es im Bereich von Lebensmitteln, Kosmetik usw. Promoter dieser „Aggregator-Marken“ sind Personal-Shopper-Bots. Der Interbrand Marketer hilft hierbei die Geschäftsbeziehung zu den aufkeimenden Influencer Kanälen aufzubauen und zu pflegen, einschließlich Virtual-Shopper-Plattformen, Virtual Concierges, In-Box-Lifestyle-Plattformen und Content-Streamer. Der Interbrand-Marketer verfügt über umfangreiche Erfahrung im B2B- und Influencer-Marketing.
- Die Aufgabe des Mood & Empathy Managers besteht in der Fähigkeit, dass Marketingaktivitäten mit den Absichten, Motivationen und Emotionen der Kunden in Einklang stehen. Diese sollten mit den Bedürfnissen der Kunden übereinstimmen und eine optimale Kombination aus Emotionen und empathischer Reaktion von Kunden hervorrufen. Er ermittelt somit, wie sich ein Kunde instinktiv zu Unternehmen, Marken und Produkten fühlt und wird unverzichtbarer Bestandteil der modernen Markenführung. Im Ergebnis entsteht aus aktiven Bestandskunden eine langfristige Markentreue und -loyalität.
- Der Personal Feedback & Appraisal Designer entwirft und testet KI-Mechanismen, um das Feedback aus Hunderttausenden oder Millionen von Kundeninteraktionen aus der Customer Journey zu sammeln, zu selektieren und automatisch mit personalisierten Antworten und Empfehlungen zurück zu senden. Die besondere Herausforderung besteht darin, dass die hyperpersonalisierten und kontextbezogenen Erfahrungen während der gesamten Customer Journey automatisiert werden. Im Ergebnis haben zufriedene und somit treue und loyale Kunden das Gefühl, dass ihre Marke jeden Wunsch und jedes Bedürfnis wahrnimmt und im Sinne einer Customer Centricity und Brand Experience umsetzt.
- Der Simulation Assistant ist Teammitglied im Simulationsmarketing und arbeitet dem Simulationsplaner und Branchenstrategen zu. Seine Aufgabe besteht darin, prädiktive Informationen zu sammeln und zu verknüpfen, um zukünftige Kundenszenarien für die Angebote zu modellieren. Das Leistungsportfolio ist hierbei sehr breit gefächert: von einfachen Infografiken und komplexen virtuellen Simulationen über Neuro-A/B-Tests bis hin zum virtuellen Klon. Außerdem verwaltet der Simulationsassistent das Prototyping und ist für Test und Rollout von Simulationserfahrungen verantwortlich. Hierbei greift er auf Predictive Intelligence, Szenarioplanung und VR-Tools zurück. In einer simulierten Welt geht es darum, die Vorhersage-Theorie zu einer greifbaren Erfahrung zu machen.
- Der Sixth Sense Analyst ist ein Trendscout. Seine Aufgabe sind Trends rechtzeitig zu erkennen und für Marketing- und Verkaufskampagnen aufzubereiten. Seine besondere Stärke liegt darin, seinen „sechsten Sinn“ mit KI-Algorithmen und schnellen, iterativen Markteinführungstools zu kombinieren, um das Markenerlebnis „von morgen“ zu definieren. Die Analyse des projizierten Verhaltens durch Bedarfs- und Zielgruppen wird im Marketing der Zukunft ein wesentlicher Eckpfeiler.
- Der Subscription Strategist bringt die Kompetenzen eines Media Managers, kreativen Business Analyst und eines Produktmanagers mit, um komplexe, interaktive Ökosysteme zu verknüpfen und den Abonnementprozess zu vereinfachen, Cross-Selling- oder Upselling-Möglichkeiten zu identifizieren und diese mit den Angeboten von Drittanbietern zu vermitteln.
- Die Aufgabe des Haptic Planners besteht darin, die Wirkung von Werbekampagnen über eine Reihe von haptischen Effekten zu maximieren, damit sich diese instinktiv richtig anfühlen. Mit neuen Materialien und der Möglichkeit, ansprechende Texturen zu programmieren, ergeben sich vielfältige Möglichkeiten, haptische Oberflächen zu erzeugen. Diese sollen durch Berührung Neugierde und weiterführendes Interesse erzeugen. Der Haptic Planner arbeitet somit an der Schnittstelle zwischen Oberflächenhaptik und Beschaffung von Texturen, Materialien und Vibrationen.
- Der Machine Personality Designer verleiht digitalen Produkten eine einzigartige Stimme und einen unverwechselbaren Charakter. Diese dienen dazu, dass Kunden und Maschinen interagieren und hilft, KI-Anwendungen ein „authentisches Aussehen“, ein „menschliches Gefühl“ oder einen „emphatischen Charakter“ zu verleihen. Im Ergebnis soll aus einer anonymen Transaktion ein digitaler Touchpoint entstehen, der dem Kunden das Gefühl gibt, gut betreut worden zu sein und „gerne wieder zu kommen“. Der Machine Personality Designer muss ein intuitives Verständnis und eine Leidenschaft für Menschen, Kultur, Ethnographie, Soziologie und Branding mitbringen – und ein multidisziplinäres Team führen können.
- Der In-World-Marketing Architect platziert Product-Placement in virtuellen Räumen. Hierbei kommt es zu einer Verschmelzung zwischen virtueller Realität, Augmented Reality, Videospielen, Filmen und 3D Animationen. Content dieser Art wird in den nächsten 5 Jahren mehr als 90% der visuellen Informationsaufnahme ausmachen. Der In-World-Marketing-Architekt wird somit zum Experten der virtuellen Customer Journey. Er versteht die Motivation, Erwartung, Ziele und Reise der Bedarfs- und Zielgruppen im virtuellen Raum.
- Mikrointeraktionen finden überall und jederzeit statt. Der Micro-interaction Marketing Specialist analysiert diese Touchpoints und identifiziert Ansätze, um Kunden emotional an zu triggern und Entscheidungen oder Wahrnehmungen zu beeinflussen. Hierzu werden visuelle und sensorische Interaktionen verwendet.
- Der Head of Bot Creative ist für die Steuerung von Bots verantwortlich, die im kreativen Marketing zunehmend eingesetzt werden und höchst personalisierte Markenbotschaften mit hoher Relevanz individuell an Kunden verschicken. Hierbei muss sichergestellt werden, dass die Bots eine markenspezifische und authentische Botschaft verschicken, die gleichzeitig eine hohe Relevanz für den Kunden beinhalten. Der Head of Bot Creative bekommt im aufstrebenden Bereich des RIQ (Robotic Intelligence Quotient) eine immer größere Bedeutung. Er wird der entscheidende Filter in einer Welt der automatisch generierten kreativen Arbeit.
- In der vernetzten Welt der intelligenten Dinge sind es nicht mehr nur Menschen, die ihren Freunden Empfehlungen geben, sondern zunehmend eine Kombination aus Menschen und Algorithmen, die von KI und Machine learning angetrieben werden. Das Rennen um die Platzierung in Suchmaschinen von Maschine zu Maschine ist längst eröffnet (Business to Machine). Der Object Persuasion Manager versteht es, eine Logic Learning Machine (LLM) zu entwickeln. Hierbei „überzeugt“ ein algorithmisch-persönlicher Webassistent die Suchmaschinen, damit Marken, Produkte und Dienstleistungen im oberen Ranking auftauchen.
- Der Machine-/People-Ethics Manager stellt sicher, dass in Zeiten zunehmender KI und intelligenter Maschinen die ethischen Grundwerte nicht ignoriert werden.
- Der Customer Wellbeing Specialist ist die Antwort auf den Megatrend Gesundheit, Fitness und bewusste Ernährung und soll Menschen dabei helfen, ihr Wohlbefinden bei der Arbeit, zu Hause, im Urlaub oder an anderen digitalen Touchpoints der Markeninteraktion zu verbessern. Seine Aufgabe besteht darin, personalisierte Push- & Pull-Mechanismen einzusetzen, um das körperliche und geistige Wohlbefinden der Kunden zu verbessern – immer unter Berücksichtigung der sensiblen Thematik Datenethik.
- Der Science Liaison/Bio-Marketing Specialist kombiniert Wissenschaft mit Marketing und analysiert biometrische Daten. Wenn Kunden im Smart Home oder mit ihren Wearables interagieren, bietet sich die Möglichkeit einer personalisierten Markenkommunikation an. Hierzu verwendet der Bio-Marketing-Spezialist ausgewählte biometrischen Kundenmarker, um Lifestyle-Produkte zu kreieren und weiter zu entwickeln.
- Die Kombination aus relevanten Insights mit kreativer Inspiration führt zu neuen Marketing- und Vertriebskampagnen, bei denen Empathie und Expertise verknüpft werden. Neu daran ist die größtmögliche Agilität bei sich verändernden Marktbedingungen. Ein idealtypischer Creative Planner bringt Empathie und Neugier, Logik und Intuition, Visions- und Imaginationskraft, Kommunikationsvermögen und diplomatisches Geschick mit.
B wie Big Data
Big Data ist ein unspezifischer Sammelbegriff für große Datenmengen, die zu groß, zu komplex, zu schnelllebig oder zu schwach strukturiert sind, um sie mit manuellen und herkömmlichen Methoden der Datenverarbeitung auswerten zu können. Außerdem steht der Begriff für den Prozess der Datafizierung und in einigen Fällen wird er synonym für digitale Technologien verwendet. Das „Big“ steht für acht Dimensionen
- volume (Umfang, Datenvolumen)
- velocity (Geschwindigkeit, mit der die Datenmengen generiert und transferiert werden)
- variety (Bandbreite der Datentypen und -quellen)
- veracity (Echtheit von Daten)
- value (unternehmerischen Mehrwert) und
- validity (Sicherstellung der Datenqualität)
- variability (Variabilität durch stetige Fluktuationen und großer Varianz)
- veracity (Richtigkeit in Bezug auf Datenqualität).
Big Data steht nicht nur für Quantität und Qualität von Daten. Entscheidend ist, was Unternehmen daraus machen. Die Erfassung, Analyse und Verarbeitung der Daten sollte dazu dienen, entweder Kosten zu senken oder Zeit zu sparen, neue Produkte und optimierte Angebote zu entwickeln oder fundierte Entscheidungen im Geschäftsmodell zu treffen. Deshalb liegt der Mehrwert nicht in den Daten an sich, sondern in der leistungsstarken Analyse.
Neben der Bedeutung als Verarbeitung von großen, komplexen und sich schnell ändernden Datenmengen steht Big Data auch als Buzzword für andere Bedeutungen wie z. B. der zunehmenden Überwachung (z. B. der Vorratsdatenspeicherung), zunehmende Intransparenz der Datenspeicherung durch Delokalisierung (Cloud Computing), der Verletzung von Intimsphäre und Persönlichkeitsrechten von Kunden, Automatisierung von Produktionsprozessen (Industrie 4.0, IoT), intransparente Automatisierung von Entscheidungsprozessen oder auch datengetriebenes Onlinemarketing.
B wie Big 5 (der Persönlichkeitsmerkmale)
Die Big Five der Persönlichkeitsmerkmale sind der Grundstein für das so genannte OCEAN-Modell (nach den Anfangsbuchstaben von Openness, Conscientiousness, Extraversion, Agreeableness, Neuroticism). Mit diesem konnten die amerikanischen Psychologen Paul Costa und Robert McCrae nachweisen, dass die Charaktereigenschaften eines Menschen mit nur fünf Adjektiven beschrieben werden können – und dies auf der ganzen Welt. Anhand dieser Big Five Persönlichkeitsmerkmale lässt sich der individuelle Charakter eines Menschen in einem Profil zusammenfassen. Ursprünglich geht die Theorie hinter den Big Five auf die 1930-er Jahre zurück. Bis zu dem Zeitpunkt beschränkte sich die Persönlichkeitspsychologie auf eine Typologie von Menschen. Die Big Five Persönlichkeitsmerkmale dagegen beschreiben fünf grundlegende Charaktermerkmale, die jeder Mensch in unterschiedlich starker Ausprägung hat. Hierzu wurden sämtliche Begriffe, die im Zusammenhang mit der menschlichen Persönlichkeit stehen, zusammengetragen und in mehreren Phasen verdichtet. Damals ging man davon aus, dass sich die Persönlichkeit in der Wortwahl wiederspiegelt. Schlussendlich blieben aus mehr als 18000 Wörtern heterogener Absender nur fünf grundlegende Merkmale übrig, die für alle Menschen (mehr oder weniger) gelten. Die Big Five Persönlichkeitsmerkmale sind in der heutigen Persönlichkeitspsychologie eines der bekanntesten Modelle, um den menschlichen Charakter zu beschreiben. Dem Big Five Modell zufolge setzt sich der menschliche Charakter aus fünf weitgehend unabhängigen und kulturübergreifenden Eigenschaften (Dimensionen) zusammen:
- Offenheit für Erfahrungen (Aufgeschlossenheit in allen Lebenslagen sowie für das Normen- und Wertesystem)
- Gewissenhaftigkeit (Kompetenz, Ordentlichkeit, Perfektionismus, Pflichtbewusstsein, Leistungsstreben, Selbstdisziplin und Besonnenheit)
- Extraversion (Herzlichkeit, Geselligkeit, Extravertiertheit, Durchsetzungsfähigkeit, Aktivität, Frohsinn und Erlebnishunger)
- Verträglichkeit (Vertrauen, Rücksichtnahme, Empathie, Gutherzigkeit, Bescheidenheit, Altruismus, Freimütigkeit und Kooperationsbereitschaft)
- Neurotizismus (Verletzlichkeit, emotionale Labilität, Ängstlichkeit, Depression und Impulsivität)
Die Persönlichkeitspsychologie hat die Existenz dieser fünf Eigenschaften über alle Kulturkreise hinweg in über 3000 wissenschaftlichen Studien belegt. Sie gelten international als das universelle Standardmodell in der Persönlichkeitsforschung und der Big Five Persönlichkeitstest gehört bis heute zu den am häufigsten durchgeführten Tests, sowohl in der Forschung als auch in der Diagnostik. Dabei ist jedes der Big Five Persönlichkeitsmerkmale als Kontinuum zu verstehen: ein Mensch ist nicht entweder durchsetzungsstark, gewissenhaft, bescheiden oder ängstlich oder eben nicht, sondern befindet sich irgendwo auf einer Skala mit einer niedrigen, mittleren oder hohen Ausprägung. Die Forschung geht davon aus, dass einzelne Dimensionen in der Bevölkerung normalverteilt sind und somit die meisten Menschen eine Ausprägung im mittleren Bereich aufweisen. Sehr hohe oder sehr niedrige Werte sind eher selten. Eine hohe oder niedrige Ausprägung bedeutet, dass sich die Werte der Person signifikant vom Durchschnitt (Normwert) unterscheiden. Unterschiede in den Ausprägungen der Big Five lassen sich übrigens nur etwa zur Hälfte bis maximal Zweidrittel durch genetische Einflüsse erklären, der Rest wird durch das Alter und die Umfeldfaktoren beeinflusst. Im Kindes- und Jugendalter schwanken die Werte stark und bleiben erst nach dem 30. Lebensjahr weitgehend konstant. Dies ändert sich wieder ab einem Lebensalter von über 70 Jahre.
Alternativen zum Big Five Modell sind z. B. das bekannte →DISG-Modell, das →Hexagon-Modell oder das Enneagramm. All diesen Modellen ist gemein, dass sie andere Dimensionen annehmen als die Big-Five-Theorie oder diese um andere Faktoren ergänzen. So konzentriert sich das DISG-Modell auf vier vorherrschende Verhaltenstypen (anstatt fünf Charaktereigenschaften) und ist das weltweit führende Tool zur Optimierung der Kommunikation und zwischenmenschlichen Beziehungen (im Vergleich zum weltweit bekanntesten Persönlichkeitstest.
B wie Big Tech
Der Begriff Big Tech ist ein Synonym für Internet- und/oder Technologie-Giganten und bezeichnet die größten IT-Unternehmen der Welt. Da der Begriff allerdings nicht alle großen IT-Unternehmen umfasst, sondern nur die fünf größten: Google (Alphabet), Amazon, Facebook (Meta Platforms), Apple und Microsoft, werden diese auch Big Five oder (als Akronym) GAFAM bezeichnet. Auch das Akronym GAFA für die Big Four ohne Microsoft ist gebräuchlich. Alle fünf Unternehmen stammen aus den USA und haben in den vergangenen Jahr(zehnt)en nicht nur ein rasantes Wachstum hingelegt, sondern in ihren jeweiligen Segmenten eine monopolähnliche Stellung. Gemessen an ihrer Marktkapitalisierung stellen sie nicht nur die fünf wertvollsten Konzerne der USA dar, sondern zusammen mit Saudi Aramco die sechs größten Unternehmen der Welt.
Der Zusatz „Big“ wird in den USA gerne für Branchen verwendet, die so groß und mächtig geworden sind, dass sie politischen Druck auf die Gesellschaft ausüben kann (z. B. um Steuerzahlungen zu „optimieren“). Denn neben Big Tech gibt es auch Big Oil, Big Tobacco oder Big Pharma. Diese Unternehmen werden beschuldigt, Wettbewerb zu unterdrücken oder zu manipulieren, Steuern zu vermeiden, den Datenschutz zu unterlaufen und die Privatsphäre nicht zu respektieren. Kritiker gehen soweit, ihnen eine Unterwanderung der Demokratie zu unterstellen. Hierbei ist nicht nur die Größe und das Wachstum der digitalen Quasi-Monopole beängstigend, sondern das unvergleichliche Tempo und die Geschwindigkeit, mit der diese Unternehmen Daten sammeln und diese in Vorhersage-Algorithmen umwandeln. Durch ihre Marktdominanz und allwissende, undurchsichtige Vernetzung in alle Bereiche der Gesellschaft kontrollieren, manipulieren und diktieren die Big Five einen Großteil der Aufmerksamkeit und Kommunikation, Medien sowie Werbung und beeinflussen Verhaltensweisen von Milliarden von Menschen. Die Dominanz der Tech Five ist erdrückend. Sie beherrschen die wichtigsten Zukunftsmärkte mit Marktanteilen von teils mehr als 90 Prozent. Amazon kontrolliert zwei Drittel des Online-Buchhandels, Google 90 Prozent des Suchmaschinenmarktes und Facebook 75 Prozent der mobilen Kommunikation. Und die Kartellbehörden kommen längst nicht mehr hinterher, alle Verstöße zu ahnden und konzentrieren sich nur noch auf die Beschwerden, die politischen Druck auslösen. Apple ist als erstes amerikanisches Unternehmen an der Börse mehr als eine Billion Dollar wert. Das ist eine Zahl mit zwölf Nullen und deutlich mehr, als die zehn größten deutschen Dax-Unternehmen zusammen wert sind. Allein Apple verfügt über 260 Milliarden Dollar. Es gibt kein (!) Unternehmen auf der Welt, das Apple sich nicht einverleiben könnte. Der iPhone-Hersteller führt damit eine Handvoll Technologie-Firmen an, deren Produkte aus dem täglichen Leben nicht mehr wegzudenken sind. Der Beliebtheit der Big Five schadet dies nicht.
B wie BIM (Building Information Modelling)
BIM ist die Abkürzung für Building Information Modelling und beschreibt eine ganzheitliche digitale Methode zur Planung und Realisierung von Bauvorhaben. Im Gegensatz zur Vergangenheit und in den meisten Fällen auch noch in der Gegenwart, in der sämtliche Planungsunterlagen wie Produktdokumentationen, Kalkulationen und Berechnungen, Zeichnungen und Ausschreibungen usw. manuell, separat und individuell erstellt und analog archiviert werden, wird im Kontext von „BIM“ durch alle an einem Bauvorhaben Beteiligten ein 3D Model genutzt und darin die Prozesse digital abgebildet. Durch Cloudlösungen können alle Beteiligten jederzeit und von überall auf das BIM-Model zugreifen. Dies bedeutet, dass Statiker, Architekten, Ingenieure, Handwerker usw. alle im selben Model arbeiten. Lieferanten erhalten einen begrenzten Zugang, um Produktinformationen zur Verfügung zu stellen. BIM geht weit über die reine Erstellung von Zeichnungen hinaus und umfasst heute schon die Überführung in fotorealistische 3D Modelle, ein Ressourcen- und Risikomanagement, automatisierte Berechnungen z. B. über den U-Wert und Simulationen wie z. B. über Wartungsintervalle oder Renovierungszyklen. Dadurch wird nicht nur sichergestellt, dass spezifische Leistungen und Produktinformationen der jeweiligen Gewerke immer aktuell sind, sondern auch mangelnde Abstimmung zwischen den Beteiligten und Fehlplanungen werden vermieden. Eine hohe Transparenz in der Bau- und Nutzungsphase soll Zeit und Kosten sparen und Daten für nachgelagerten Maßnahmen zugänglich machen. BIM ist eine operative Methodik und kein Werkzeug, wie es oft hingestellt wird. Es muss als Digitalisierungsprozess eines Gebäudes identifiziert werden, der ein digitales Informationsmodell verwendet und alle Informationen in Bezug auf den gesamten Lebenszyklus enthält wie z. B. Projekt, Bau, Management, Wartung, Entsorgung – und nicht nur in der Planungsphase. Für die Kommunikation zwischen diesen Daten ist das standardisierte Dateiformat „Industry Foundation Classes“ (→IFC-Format) zuständig. Es bietet einen Austausch zwischen den Fachprogrammen verschiedener Gewerke, so dass diese während der Planung, in der Bau- und bei Bedarf in der späteren Nutzungsphase Daten austauschen können.
B wie BIM-Autoren-Software
Softwareanwendungen für →BIM (Building Information Modeling) werden auch als BIM-Autoren-Software bezeichnet und nehmen im BIM-Prozess eine Schlüsselrolle ein. Mit ihnen werden digitale Bauwerksmodelle in der Regel mit parametrisierten Modellelementen in 3D konstruiert. BIM-Autoren-Software gibt es spezialisiert auf eine bestimmte oder generalisiert auf mehrere spezifische Fachplanungsdisziplinen. Folgende Funktionen sollte eine BIM-Autoren-Software beinhalten:
- Erstellung und Visualisierung von geometrisch komplexen Bauwerken, inklusive außergewöhnlicher Entwurfsvarianten und Designs
- Verwaltung von alphanumerischen Informationen in Verbindung mit geometrischen Modellelementen inklusive der Möglichkeit, projekt- oder bürospezifische Parameter und Kennziffer definieren zu können
- Erzeugung von Bauteillisten und -mengen sowie -massen
- Zugriff durch mehrere Nutzer und/oder von verschiedenen Arbeitsplätzen inklusive der Einrichtung von Arbeitsbereichen und einem Berechtigungskonzept für definierte Model Element Autoren
- →IFC als Import- und/oder Exportformat mit Funktionen, die IFC-Version und für den Export verwendete Model View Definition konfigurieren zu können
- Import- und/oder Exportfunktionen für CAD-Dateien inklusive dem Referenzieren digital vorliegender Bestandspläne und/oder dem Verknüpfen von 2D-CAD-Details mit dem BIM-Modell
- Unterstützung einer modellbasierten Kommunikation
- Erzeugung und Verwaltung von Plänen mit Grundrissen, Ansichten oder Schnitten direkt aus dem 3D-Modell
- Integrierte Bibliothek und Chronologie generischer BIM-Objekte
Eine offene Schnittstelle, um die Software nach eigenen Bedürfnissen anpassen zu können oder um Anpassungen von anderen Entwicklern nutzen zu können, wäre hilfreich.
B wie BIM-Modell
Während →BIM (Building Information Modeling) die Methode beschreibt, ist das BIM-Modell das zugrundeliegende Datenmodell, mit dem die digitale Gebäudemodellierung strukturiert wird. Dieses umfasst neben geometrischen auch alphanumerische Daten und soll das spätere Gebäude als „digitalen Zwilling“ abbilden. Hierfür werden spezialisierte Softwaresysteme benötigt, die weit über den bisherigen Funktionsumfang herkömmlicher CAD-Systeme hinausgehen. Diese Software wird auch als BIM Autoren Software bezeichnet, die mit ihnen arbeitenden Architekten, Fachplaner, technische Zeichner usw. als BIM Software Autoren. Diese besitzen die Berechtigung zum Erstellen, Ändern und Löschen von Modellelementen, weshalb jedes Element eines BIM-Modells mit dem zuständigen Autor (im englischen auch als Model Element Author bezeichnet) gekennzeichnet werden sollte. In der Regel weist ein BIM-Projekt mehrere BIM-Modelle auf, die je nach Fachmodelle, Gebäudeteile, Geschosse oder Bauabschnitte aufgeteilt werden. Alle BIM-Modelle eines Projekts werden in einem Koordinationsmodell zusammengeführt. Damit zwischen diesen Teil- bzw. Fachmodellen ein gemeinsamer Bezug hergestellt werden kann, bildet das Architekturmodell das Referenzmodell, in der die BIM Autoren Software verknüpft wird.
B wie Bionik
Der Begriff Bionik (auch Biomimetik) setzt sich zusammen aus Biologie und Technik und beschreibt das kreative Umsetzen von Anregungen bzw. Übertragen von Phänomenen aus der Biologie auf die Technik. Bioniker arbeiten hierbei interdisziplinär zusammen mit Biologen und Naturwissenschaftlern sowie mit Ingenieuren, Architekten, Materialforschern und Designern. Bionik als noch sehr junge Wissenschaftsdisziplin verfolgt das Ziel, durch Abstraktion, Übertragung und Anwendung von Erkenntnissen, die an biologischen Vorbildern gewonnen werden, systematisch technische Fragestellungen zu lösen. Biologische Vorbilder im Sinne dieser Definition sind biologische Prozesse, Materialien, Strukturen, Funktionen, Organismen und Erfolgsprinzipien sowie der Prozess der Evolution. Das Ziel ist ein von der Natur getrenntes technisches Ergebnis, wodurch sich die Bionik von Wissenschaften, die biologische Prozesse nutzen und erweitern, wie z. B. die Bioinformatik, Biophysik und Biochemie unterscheidet.
Bioniker greifen auf das große Reservoir an biologischen Strukturen, Prozessen und oft überraschenden funktionalen Lösungen zurück, die in Millionen von Jahren evolutionärer Entwicklung und Biodiversität erprobt und durch die Natur selbst optimiert wurden. Sie liefern Ideen für nachhaltige und vor allem oft unerwartete innovative Anwendungen, die Sprunginnovationen möglich machen. In der Bionik wird hierbei unterschieden zwischen einer reinen Kopie natürlicher Vorbilder oder ein durch die Natur angeregtes „Neuerfinden“.
Die Natur ist der erfolgreichste Innovator aller Zeiten und die Bionik überzeugt mittlerweile als etablierte Innovationsmethode. Dies belegen Produktinnovationen auch in der Baubranche wie z. B. superhydrophobe Oberflächen für Unbenetzbarkeit und Selbstreinigung (Lotus-Effekt) bei Fassadenbeschichtungen oder Dachziegel, Nanostrukturen für klebstofffreies Haften (Gecko) bei Klebefolien oder auch Strukturoptimierung von Bauteilen (CAO und SKO durch Wuchsformen von Bäumen oder Knochen).
Übrigens: die Entdeckung der Schwarmintelligenz geht u. a. auf Verhaltensweisen von Insekten zurück und wird auch als Ameisenalgorithmus bezeichnet.
B wie Bisoziation
Der Begriff Bisoziation wurde vom ungarisch-britischen Schriftsteller Arthur Koestler in Anlehnung an das Wort Assoziation eingeführt. Während bei der Assoziation Dinge auf einer Ebene verknüpft werden, verknüpft die Bisoziation Dinge auf zwei unterschiedlichen Ebenen. Diese Kreativitätstechnik dient dazu, geistige Routinen zu durchbrechen und dadurch kreative, ungewohnte und innovative Lösungsansätze zu finden. Die Ergebnisse dieser Methode können zu drei wesentlichen Entdeckungen führen: zu Erkenntnis und Entdeckung (überraschende und neue Einsichten), zum Verständnis (von Zusammenhängen) und in manchen Fällen auch zu Humor, denn aus dem Zusammentreffen nicht zusammen gehörender Dinge kann auch Komik entstehen. Das Besondere an der Bisoziation besteht darin, dass zwei vorher nicht verbundene Denk-Dimensionen zusammengeführt werden, um neue Ideen zu entwickeln. Deshalb wird diese Methode neben der Ideenfindung und als Kreativitätstechnik gerne auch im Rahmen von Problem- oder Konfliktlösungen eingesetzt.
B wie Blockchain
Eine Blockchain (englisch für Blockkette) ist eine kontinuierlich erweiterbare Liste von Datensätzen in einzelnen Blöcken. Neue Blöcke werden nach einem Konsensverfahren erstellt und mittels kryptographischer Verfahren an eine bestehende Kette angehängt. Jeder Block enthält dabei typischerweise einen kryptographisch sicheren Hash (Streuwert) des vorhergehenden Blocks, einen Zeitstempel und Transaktionsdaten. Die Blockchain-Technologie eignet sich ideal, um Informationen in der Wirtschaft auszutauschen. Sie liefert sofortige, gemeinsam genutzte und vollständig transparente Informationen, die in einem nicht veränderbaren Ledger gespeichert sind, auf das nur berechtigte Netzwerkmitglieder zugreifen können. Ein Blockchain-Netzwerk kann Aufträge, Zahlungen, Konten, Produktion und vieles mehr verfolgen. Da alle Nutzer eine einheitliche und transparente Sicht auf die Informationen haben, sind sämtliche Details einer Transaktion von Anfang bis Ende einsehbar. Entscheidend ist, dass spätere Transaktionen auf früheren Transaktionen aufbauen und diese als richtig bestätigen, indem sie die Kenntnis der früheren Transaktionen bestätigen. Infolgedessen ist es unmöglich, Existenz oder Inhalte der früheren Transaktionen nachträglich zu manipulieren oder zu tilgen, ohne gleichzeitig alle späteren Transaktionen ebenfalls zu ändern. Andere Teilnehmer der Transaktionen erkennen eine Manipulation der Blockchain an der Inkonsistenz der Blöcke. Dies schafft nicht nur Transparenz, sondern auch eine vertrauenswürdige Zusammenarbeit zwischen verschiedenen Organisationen und erhöht die Effizienz deutlich. Denn bisher war für bestimmte Transaktionen immer die Einbindung einer zentralen Instanz notwendig, z. B. eines PKI-Systems, Notars usw. Alternativ müsste dies ein Treuhänder übernehmen, der die Zusammenarbeit und Eigentumsübertragung zwischen den verschiedenen Organisationen verwaltet und verifiziert. Dies verursacht Kosten und verlangsamt die Prozesse. Da die Blockchain-Technologie dies automatisiert übernimmt, werden die Prozesse deutlich schneller und effektiver. Doppelte Aufzeichnungen und Validierungen durch Dritte entfallen. Außerdem sind die herkömmlichen Systeme anfällig für Betrug und Cyberattacken. Die Blockchain-Technologie hat den Vorteil, dass die Daten als Transaktionen in den einzelnen Blöcken manipulationssicher gespeichert werden können. Dies bedeutet, dass die Teilnehmer der Blockchain in der Lage sind, die Echtheit, den Ursprung und die Unversehrtheit der gespeicherten Daten (Transaktionen) zu überprüfen. Deshalb wird die Blockchain auch als „Internet der Werte“ (Internet of values) bezeichnet und legt die technische Basis für Kryptowährungen wie z. B. Bitcoin.
Man kann die Eigenschaften einer Blockchain wie folgt zusammenfassen:
- Verkettungsprinzip: Eine Blockchain ist eine Verkettung von Datenblöcken, die über die Zeit weiter fortgeschrieben wird
- Dezentrale Speicherung: Eine Blockchain wird nicht zentral gespeichert, sondern als verteiltes Register geführt
- Konsensmechanismus: Es wird sichergestellt, dass bei allen Beteiligten eine identische Kette entsteht. Neue Blöcke müssen vorher miteinander abgestimmt werden (durch Validatoren, die bei Bitcoin „Miner“ genannt werden). Das Einfügen eines vorgeschlagenen Blocks in die Kette erfolgt durch ein Konsensprotokoll (algorithmisches Verfahren zur Abstimmung)
- Manipulationssicherheit: Durch kryptographische Verfahren wird sichergestellt, dass die Blockchain nicht nachträglich verändert werden kann. Die Verkettung der Blöcke ist unveränderbar, fälschungs- und manipulationssicher
- Transparenz und Vertraulichkeit: Die auf der Blockchain gespeicherten Daten sind von allen Beteiligten einsehbar und können nach Bedarf individuell verschlüsselt werden, so dass Blockchains das Berechtigungskonzept je nach Vertraulichkeitsgrad flexible anpassen kann
- Eineindeutigkeit: Durch die Nutzung digitaler Signaturen sind Informationen in der Blockchain speicherbar, die fälschungssicher nachweisen, dass Teilnehmer bestimmte Daten eineindeutig hinterlegt haben
- Distributed-Ledger-Technologie: Alle Beteiligten haben Zugriff auf das verteilte Register und seine unveränderlichen Transaktionsaufzeichnungen. Diese werden nur einmal aufgezeichnet, wodurch der für herkömmliche Geschäftsnetzwerke typische Mehrfachaufwand entfällt
- Intelligente Verträge: Um Transaktionen zu beschleunigen, wird ein Satz von Regeln – ein „Smart Contracts“ – auf der Blockchain gespeichert und automatisch ausgeführt. Intelligente Verträge können Bedingungen z. B. für die Übertragung von Unternehmensanleihen festlegen oder für die Zahlung von Reiseversicherungen und vieles mehr.
B wie Blue-Ocean-Methodik
Die Blue-Ocean-Methodik basiert auf der Implementierung der Value Innovation. Zentrales Instrument hierbei ist die Wertkurve, mit der sich das relative Leistungsprofil eines Unternehmens innerhalb einer Branche darstellen und analysieren lässt. Die horizontale Achse wird über die kritischen Erfolgsfaktoren bestimmt, die in der Regel der Marktforschung oder Unternehmensstrategie entnommen wird. Die vertikale Achse beschreibt das Leistungsniveau innerhalb einer Branche (Skala von niedrig bis hoch). Die zu untersuchende Einheit wird auf der Wertkurve eingeordnet. Erhält diese Einheit einen hohen Wert für einen Faktor bedeutet dies eine bessere Leistung im Vergleich zu Wettbewerbern (und umgekehrt). Zusätzlich werden die Wertkurven wichtiger Wettbewerber oder relevanter strategischer Gruppen nach dem gleichen Schema ermittelt. Werden mehrere Wertkurven für unterschiedliche Unternehmen in einem Chart abgebildet, spricht man auch vom so genannten Strategy Canvas.
Anschließend wird ein andersartiges Leistungsangebot konstruiert eine neue Wertkurve entwickelt, mit dem ein echter Kundennutzen und Mehrwert geboten wird. In der →Blue-Ocean-Strategie werden hierfür vier Maßnahmen („Four Actions Framework“) definiert, um Kernelemente zu verändern bzw. neu zu definieren und somit Wertkurven nachhaltig zu verändern:
- Eliminierung: Welche Faktoren können weggelassen werden?
- Reduzierung: Was kann radikal gekürzt werden?
- Steigerung: Welche Elemente des Produkts müssen über den Branchenstandard gehoben werden?
- Kreierung: Welche Komponenten eines Produkts müssen neu erfunden werden?
Durch die Veränderung und neue Definition der Kernelemente einer Wertekurve sollen neue Geschäftsmodelle entwickelt werden. In der Blue-Ocean-Strategie werden hierfür sechs Lösungen („Six Paths Framework“) empfohlen:
- Die Perspektive systematisch auf weitere Branchen richten.
- Übergreifende Angebote in einer Branche definieren.
- Neue Zielgruppen in der Käuferkette finden.
- Komplementäre Produkte und Dienstleistungen zu einer Gesamtlösung zusammenfassen.
- Funktionale oder emotionale Ausrichtung der Branche überprüfen.
- Veränderungen im Zeitablauf erkennen.
Für eine erfolgreiche Umsetzung dürfen zwei Aspekte nicht vernachlässigt werden. Zum einen müssen organisatorische Hürden überwunden (Tipping-Point-Management) und zum anderen muss die Umsetzung in die Strategie eingebunden werden.
B wie Blue-Ocean-Strategie
Die Blue-Ocean-Strategie stellt eine Methode im strategischen Management dar. Im Kern geht es darum, neue und innovative Märkte zu erkennen oder zu entwickeln, in denen es (noch) keinen Wettbewerb gibt, um diese mit innovativen Ideen und rentablen Geschäftsmodellen zu besetzen. Die von den Professoren W. Chan Kim und Renée Mauborgne entwickelte Strategie wurde 2004 vorgestellt und zunächst als Value Innovation bezeichnet. Der Grundgedanke der Blue-Ocean-Strategie besteht in der Nutzen- und Mehrwertbasierten Innovation in einem neuen Marktsegment, in dem der bisherige Wettbewerb irrelevant und Kunden ein unvergleichbares Angebot unterbreitet wird. Die Blue-Ocean-Strategie zielt deshalb nicht darauf ab, sich vom Wettbewerb zu differenzieren wie dies z. B. in den herkömmlichen Wettbewerbsstrategien z. B. nach Michael Porter der Fall ist, sondern Nachfrage zu generieren und/oder Bedürfnisse zu schaffen, die es so bisher nicht gegeben hat. In diesen neuen Märkten ohne etablierten Wettbewerb werden neben der Erzielung einer deutlich höheren Umsatzrentabilität in der Regel auch neue Marktmechanismen und Wettbewerbsregeln etabliert. Erfolgreiche Unternehmen investieren ca. 15% ihrer Ressourcen in inkrementelle bis disruptive Innovationen in neue Märkte. Im Vergleich dazu wenden weniger erfolgreiche Unternehmen über 80% ihrer F&E-Ressourcen auf, um bestehende Angebote und Märkte zu bedienen und zu optimieren sowie auf Aktionen des Wettbewerbs zu reagieren (Quelle: Harvard Business Manager, Heft 3/2019).
„Blue Oceans“ stehen in dem Zusammenhang für „sauber“, „unberührt“ und „friedlich“ und sollen ein Marktumfeld mit keinem (oder sehr wenig) Wettbewerb beschreiben. „Red Oceans“ dagegen stehen symbolisch für blutige Kämpfe unter Raubfischen und beschreiben Auseinandersetzungen in gesättigten Märkten durch bestehende Wettbewerber, in denen harte Preiskämpfe geführt werden, um das eigene Überleben zu sichern. Infolgedessen geht es bei der Blue-Ocean-Strategie darum, sich nicht am Wettbewerb orientieren, sondern eigene innovative Wege zu suchen, zu finden und zu entwickeln, um einen Blauen Ozean selbst zu kreieren. Erfolgreiche Innovationen können dabei auf technologische Neuentwicklungen basieren, in der Regel handelt es sich aber um eine Neugestaltung bestehender Angebote in einem neuen Umfeld.
B wie Boston-Modell
Der Begriff „Boston-Modell“ (auch BCG-Modell) beschreibt die visuelle Darstellung des Portfolio (Produkte und Dienstleistungen) im Zusammenhang mit dem Produkt-Lebenszyklus. Die Darstellung erfolgt als Matrix, in der die y-Achse das Marktwachstum und die x-Achse den relativen Marktanteil (Verhältnis des eigenen Marktanteils zu dem des marktführenden Wettbewerbers) abbildet. Daher ist auch der Begriff der BCG-Matrix geläufig. Diese wird häufig als Streu- oder Blasendiagramm visualisiert, in der die Fläche eines Kreises je nach Dimensionierung den Umsatz des jeweiligen Produkts, Sortiments oder Geschäftseinheiten darstellt. Das Produkt- oder Sortimentsportfolio oder die Geschäftseinheiten werden anhand ihrer Werte einem der vier Quadranten zugeordnet, woraus sich die jeweilige Strategie ergibt. Der typische Produktlebenszyklus verläuft vom Question Mark über Star und Cashcow zum Poor Dog.
- Question Marks sind die Neuprodukte mit einem hohen Wachstumspotenzial und geringen relativen Marktanteilen. In dieser Phase steht das Management vor der Entscheidung, in das Produkt zu investieren oder das Produkt aufzugeben. Schließlich benötigt das Produkt liquide Mittel, die es bisher nicht selbst erwirtschaften konnte. Typische Empfehlungen in dieser Phase lauten: Selektion und evtl. eine offensive Penetrationsstrategie, um über Wachstum Marktanteile zu erhöhen und Skaleneffekte zu erzielen.
- Stars sind wie der Name verrät die Top-Produkte eines Unternehmens, Umsatzträger mit hoher Marge und imagebildend. Sie haben in der Regel einen hohen relativen Marktanteil und befindet sich in einem Wachstumsmarkt. Den Investitionsbedarf für das weitere Wachstum decken diese Produkte über ihren eigenen Cash-Flow ab. Die strategische Empfehlung in dieser Phase lautet: Investition sowie eine Abschöpfungsstrategie, um Deckungsbeiträge zu erhöhen, ohne hierbei Marktanteile zu verlieren.
- Cashcows haben einen hohen relativen Marktanteil in einem statischen Markt, der nur noch geringfügig wächst. Diese Produkte generieren stabile, hohe Cash-Flows und können ohne weitere Investitionen „gemolken“ werden. Die strategische Empfehlung in dieser Phase ist eine Festpreisstrategie oder Preiswettbewerbsstrategie.
- Poor Dogs haben ihren Zenit überschritten und gelten als Auslaufprodukte im Unternehmen. Diese Produkte haben kein oder nur noch ein sehr geringes Wachstum und in der Regel einen geringen relativen Marktanteil. Meistens werden die Produkte noch „mitgeschleppt“, da für langjährige Kundenbeziehungen verantwortlich sind. Spätestens wenn der Deckungsbeitrag für diese Produkte negativ ist, muss das Portfolio um diese Produkte bereinigt werden. Die strategische Empfehlung lautet dann eine Exit- oder Desinvestitionsstrategie einzuleiten.
Häufig wird das Boston-Modell eingesetzt, um Produkte „gegeneinander“ zu positionieren. Dabei dient die Matrix auch dazu, das gesamte Portfolio im Sinne eines Finanzausgleiches zu betrachten. Produkte im Portfolio sollen sich gegenseitig unterstützen und finanzieren. Question Marks können z. B. nur expandieren, wenn z. B. Cashcows dieses Wachstum finanzieren. Hierbei ist wichtig, dass die Matrix nur eine Momentaufnahme liefert und keine Prognose.
Das Boston-Modell ist ein Werkzeug zur Strategieentwicklung. Benannt wurde das Modell bzw. die Matrix nach der Boston Consulting Group (BCG), deren Gründer Bruce Henderson diese im Jahre 1970 entwickelte. In den letzten 50 Jahren haben sich Märkte weiter entwickelt und neue Herausforderungen ergeben. Infolgedessen bleiben kritische Anmerkungen auch am etablierten BCG-Modell nicht aus. Heute wird die Relation zwischen Marktanteil und Rentabilität in Frage gestellt, da die Entwicklung eines hohen Marktanteils in der Regel auch hohe Investitionen erfordern. Darüber hinaus ignoriert der Ansatz die Positionierung in rückläufigen Märkten wie z. B. Loser, die für ein sinkendes Wachstum bei hohem Marktanteil stehen, also gegen den Markt verlieren. Des Weiteren sieht das Boston-Modell ein Marktwachstum als gegeben an und vernachlässigt, dass Unternehmen durch geeignete Maßnahmen dieses positiv beeinflussen können.
B wie Brain-Machine-Interface (BMI)
Digitale Sprachassistenten wie z. B. Siri oder Alexa haben den Alltag stark vereinfacht. Dennoch weisen diese sprachgesteuerten Assistenzsysteme noch Schwächen auf wie z. B. in der umgangssprachlichen Eingabe, der Verständlichkeit bei Doppeldeutigkeit oder auch Dialekt und Mundart u. a. Brain-Machine-Interface (oder synonym Brain-Computer-Interfaces) sind die konsequente Weiterentwicklung der digitalen Sprachassistenten und ermöglichen eine direkte Informationsübertragung zwischen einem organischen Schaltkreis (Gehirn) und einem technischen Schaltkreis (Computer). Durch das Auslesen von Gedanken bzw. mentalen Befehlen können sie als neurotechnologische Eingabesysteme eine sprach- und bewegungsunabhängige Maschinensteuerung vermitteln. Das Besondere daran ist, dass diese Systeme ohne die Betätigung irgendeines Muskels auskommen. Dies eröffnet ganz neue und revolutionäre Anwendungsmöglichkeiten, nicht nur für körperlich behinderte Menschen. Erste prototypische Systeme findet man z. B. für die Steuerung eines Cursors, in der Bedienung eines virtuellen Buchstabierprogramms oder auch der Steuerung von Prothesen oder der Kontrolle in der Robotik. Weitere Anwendungen fokussieren sich auf die Überwachung von Bewusstseins- und Gefühlszuständen oder die Interaktion mit virtuellen Umgebungen wie z. B. im Bereich Gaming.
Die Informationsübertragung zwischen einem Gehirn und einem Computer beruht grundsätzlich immer auf der Erfassung und Verarbeitung von spezifischen physiologischen Signalen wie z. B. elektrischen Potentialschwankungen oder Fluktuationen im Sauerstoffgehalt des Blutes, die Aufschluss über die neuronale Aktivität geben. Die räumliche und zeitliche Dynamik dieser Signale kann über nicht-invasive Ableitverfahren wie die Elektroenzephalographie (EEG) oder die funktionelle Nahinfrarotspektroskopie gemessen werden. Die Aktivitäten werden vom Brain-Machine-Interface erfasst, in Muster überführt und mit vorgegebenen und/oder erlernten Referenzmustern verglichen. Auf diese Weise identifiziert das System charakteristische neuronale Signaturen, die als Kontrollsignale dienen. Durch die Identifikation und Klassifikation dieser Kontrollsignale entschlüsselt das Brain-Machine-Interface die Intentionen des Nutzers und generiert daraufhin maschinelle Steuerbefehle.
Während sich Brain-Machine-Interfaces in der Medizintechnik weitestgehend noch in der Entwicklungsphase befinden und erst sehr wenige Anwendungen an der Schwelle zur Marktreife stehen, gibt es bereits vergleichsweise einfache BMI in den Bereichen Entertainment, Fitness und Wellness. Headsets mit BMI-Technologie geben z. B. ein Biofeedback und können somit die Stimmung und Gemütslage bewusst beeinflussen, Stress abbauen oder die Konzentrationsfähigkeit erhöhen. Bei diesen Anwendungen geht es also noch nicht um die Steuerung eines maschinellen Systems.
Gegenwärtig besteht das größte Problem bei Brain-Machine-Interfaces in der niedrigen Informationsübertragungsrate zwischen Gehirn und Computer. Außerdem werden die mentalen Signale von den BMI-Systemen zum Teil nicht verstanden oder falsch interpretiert. Hinzu kommt, dass sämtliche Entwicklungen aktuell noch in einer kontrollierten Laborumgebung stattfinden und den Schritt in die alltägliche Anwendung noch nicht überwunden haben. Ein hohes Hintergrundrauschen, elektromagnetische Fremdsignale oder auch die Ablenkung des Nutzers durch eine Vielzahl unterschiedlicher Sinnesreize sind nur einige Aspekte, die sich auf die Funktion der BMI-Systeme negativ auswirken.
Aktuell stellt die Vision einer schnellen, intuitiven und präzisen Gedankenkontrolle und -steuerung von Computern und Maschinen noch Zukunftsmusik dar. Aufgrund der aktuellen Entwicklungen in der neurowissenschaftlichen Grundlagenforschung (Human Brain Project in Europa und BRAIN Initiative in den USA) wird es in den nächsten Jahren in der BMI-Technologie signifikante Fortschritte geben. Einen ersten Durchbruch hat jetzt die Universität von Kalifornien verkündet. Das Team von Joseph Makin hat eine Möglichkeit gefunden, die menschlichen Gehirnaktivitäten in Text zu übersetzen. Der von ihm entwickelte Algorithmus ist in der Lage, einen ganzen Satz über die Hirnaktivitäten der Testperson in einen geschriebenen Satz zu übersetzen. Der auf künstliche Intelligenz basierende Algorithmus nutzte die Hirnimplantate von Testpersonen und konnte die Hirnaktivitäten auslesen und diese interpretieren. Infolgedessen konnte die künstliche Intelligenz lernen, welche Hirnregion in welcher Reihenfolge und mit welcher Intensität aktiviert wurde, um einen vollständigen Satz zu erstellen. Anschließend war das Brain-Machine-Interface in der Lage, selbst Vokale und Konsonanten zu unterscheiden und mehrere Sätze zu bilden. Die Fehlerquote soll lt. Studie dem einer professionellen Sprachtranskription entsprechen.
Ein besseres Verständnis darüber, wie neuronale Signale erfasst, interpretiert und sogar beeinflusst werden können, wird disruptive Entwicklungen in der BMI-Technologie ermöglichen. Bidirektionale BMI-Systeme, die sowohl Informationen auslesen als auch Signale ins Gehirn einspeisen können, werden in Zukunft eine maschinenvermittelte Hirn-zu-Hirn-Kommunikation ermöglichen und einen Grad organisch-technischer Interaktion erschließen, der die Grenzen zwischen Mensch und Maschine verschwimmen lässt. Ob und in welchem Umfang dies tatsächlich Realität wird, ist nicht nur von der technologischen Entwicklung abhängig, sondern auch von der gesellschaftlichen Akzeptanz.
B wie Brainfloating
Brainfloating ist der Oberbegriff für verschiedene Kreativitätstechniken, die Ende der 1980-er Jahre entwickelt wurden. Hierbei soll durch multisensorische Elemente das komplette Gehirn im kreativen Prozess angesprochen werden. Ausgangspunkt für die Entwicklung des Brainfloating-Prinzips war die ursprüngliche Annahme in der Hirnforschung, dass den einzelnen Gehirnhälften bestimmte Funktionen zugeordnet wurden wie z. B., dass die rechte Hirnhälfte für Kreativität und Intuition zuständig wäre und die linke für analytisches Denken und Sprache. Heute besteht in der Hirnforschung soweit Konsens, dass derartige ausschließlichen aufgabenspezifischen Zuweisungen nicht zutreffen. Auch wenn einzelne Aufgaben von der einen Hirnhälfte stärker repräsentiert wird als von der anderen, gibt es dennoch auch Bereiche, die beide Hemisphären gleichermaßen stark beanspruchen. Weiter besteht Konsens darüber, dass es Asymmetrien in der Aufgabenverteilung gibt. Somit sind die Hirnhälften je nach Funktion und Aufgabe unterschiedlich stark involviert. Dieses nutzt man in der Brainfloating-Technik, um das Gehirn zu aktivieren, damit klassische Denkmuster durchbrochen und neue Ideen entwickelt werden können. Elemente dieser Kreativitätstechnik können z. B. Bild-Text-Potenzierung, Creative Casting, Doppelkopf, Dreiklang, Formbildung, Lautmalerei, Simultanaktion oder Umpolung u. a. sein.
B wie Business-Elf
Um das Zusammenspiel unterschiedlicher Fachbereiche und/oder Interessen innerhalb einer Organisation zu symbolisieren, wird gerne der Vergleich zu einem Orchester gezogen. Nur wenn die unterschiedlichen Musikinstrumente in Einklang gebracht werden, ergibt sich ein harmonisches Musikstück. Um das Zusammenspiel möglicher Gegensätze und Konsequenzen für Organisationen aufzuzeigen, hat sich das Modell der so genannten Business-Elf bewährt. Es hilft, den Perspektivwechsel vorzunehmen und sich in den Standpunkt eines Andersdenkenden hinein zu versetzen.
Die Business-Elf bedient gleich mehrere Aspekte. Zum einen symbolisiert sie, dass man als Unternehmen wie auch im Spitzensport nur gemeinsam erfolgreich sein kann oder der Misserfolg immer mehr als einen Verursacher hat. Zum anderen werden Unternehmen erfolgreich sein, wenn sich jeder einzelne Mitarbeiter mit seinem Unternehmen identifiziert, sich als Teamspieler versteht und dennoch genug Ehrgeiz hat, sein Team zu Höchstleistungen zu pushen und eigene Interessen hinten an zu stellen. Dies erfordert Managementkompetenzen und Führungsqualitäten.
Außerdem eignet sich die Business-Elf, um die unterschiedlichen Rollen und Kompetenzen der Fachbereiche eines Unternehmens zu vergleichen. Der Vertrieb z. B. in seinen unterschiedlichen Ausprägungen kann als Sperrspitze eines Unternehmens mit dem Stürmer einer Fußballmannschaft verglichen werden. Er ist für das Versenken der Bälle im gegnerischen Tor verantwortlich. Dafür braucht er Zuarbeit z. B. durch Marketing, Produktmanagement, Technischen Support, Forschung & Entwicklung, Innovationsmanagement oder Logistik. Das Marketing als Dreh- und Angelpunkt im Spielaufbau setzt aber nicht nur kreative Ansätze und Impulse für den Vorverkauf, sondern organisiert auch die „Abwehr“. Im übertragenen Sinne sind hiermit die Fachabteilungen im Backup gemeint (z. B. Produktion, Einkauf, Buchhaltung, Controlling, Recht und Compliance, IT und Datenmanagement usw.). Denn zu häufig wird noch unterschätzt, dass die beste Performance beim Kunden durch den Kollegen im Vertrieb wirkungslos bleibt, wenn nachgelagerte Abteilungen die Erwartungen des Kunden nicht erfüllen oder nicht in der Qualität, die der Vertrieb zugesagt hat. Aufgrund einer Vielzahl an Touchpoints muss die Customer Centricity über alle Unternehmensbereiche verinnerlicht und gelebt werden. Hier zählen auch die vermeintlich „kleinen“ oder „unwichtigen“ Dinge wie der Erstkontakt mit der Telefonzentrale oder die richtig ausgestellte Rechnung genauso wie die „unbequemen“ Dinge wie eine schnelle und unbürokratische Abwicklung einer Reklamation oder Beschwerde, die beim Kunden nachhaltig das Markenbild prägen – positiv wie negativ. In einer gut funktionierenden Organisation kennt jeder Fachbereich seine Rolle und Kompetenzen und konzentriert sich darauf, Höchstleistungen im Sinne der Unternehmensstrategie zu bringen. Ein permanentes Einmischen in andere Bereiche und/oder das Absprechen von Kompetenzen sind deutliche Hinweise auf eine schlechte Unternehmenskultur.
Erfolgreiche Fußballmannschaften sind auf allen Positionen sehr gut und doppelt besetzt. Auch in diesem Punkt kann sich die Wirtschaft viel aus dem Spitzensport abschauen. Und letztendlich kann mit dem Modell der Business-Elf der Unterschied zwischen Vision, Strategie und Taktik erklärt werden. Ein Beispiel: eine Mannschaft spielt in der zweiten Liga im oberen Tabellenbereich und nimmt sich vor, in den nächsten 10 Jahren Deutscher Meister zu werden – dies wäre die Vision. Die Vision ist das übergeordnete und unverrückbare Ziel, das in den nächsten 10 Jahren angestrebt wird. Die Strategie beinhaltet grundlegende Entscheidungen, wie diese Vision erreicht werden soll. Denn neben einer intensiven Nachwuchsarbeit, die eher längerfristig ausgelegt ist, wäre die Alternative, Top-Spieler aus anderen Vereinen zu engagieren. Dieser Weg ist meist kurzfristig möglich, schwächt andere Teams (Wettbewerber) und ist allerdings mit hohen Kosten verbunden. Die Strategie beinhaltet auch das Spielsystem, mit dem eine Mannschaft agieren möchte. Hierfür müssen Spielphilosophie des Trainers und die vorhandenen Spielerqualitäten zusammenpassen, anderenfalls die geeigneten Spieler eingekauft und der richtige Trainer engagiert werden, damit im Training das Spielsystem allen Mannschaftsteilen vermittelt wird. Die individuelle Mannschaftsaufstellung ist geprägt von der Stärke des Gegners sowie ggf. verletzungsbedingten Ausfällen in der eigenen Mannschaft. Dies wiederum ist die Taktik, die sich von Spieltag zu Spieltag ändern kann. Mit taktischen Maßnahmen können im Einzelfall auch mal Defizite in der Strategie kompensiert werden, dauerhaft allerdings nicht. In dem Fall müsste die Strategie angepasst werden. Und wie im Fußball wird der Grundstein für den Erfolg im permanenten Training gelegt. Erfolgreiche Mannschaften trainieren Spielzüge, Freistoßvarianten, Positionswechsel und entwickeln somit eine Routine zwischen den Spielern. Spitzenteams zeichnet darüber hinaus aus, dass sie blitzschnell auf Veränderungen im Spiel reagieren können. Sei es durch einen verletzungsbedingten Ausfall oder die Sperre eines eigenen Spielers oder die geänderte Spielweise durch Einwechslung eines gegnerischen Spielers.
Alle diese Erfahrungen aus dem Spitzensport lassen sich auf Unternehmen übertragen. Erfolgreiche Unternehmen trainieren keine Spielzüge, haben aber funktionierende Prozesse. Sie üben auch keine Freistoßvarianten, führen aber Produkte ein, Verkaufsaktionen durch oder bieten Services und Dienstleistungen mit Mehrwert an. Den Positionswechsel im Sport kann man in der Wirtschaft mit Marktveränderungen gleichsetzen, ob nun durch das veränderte Verhalten des Wettbewerbs, der Bedarfs- und Zielgruppen oder durch Einflüsse aus Politik, Gesetzgebung oder normativen Vorgeben etc. Auch für die egoistischen Spieler im Sport gibt es in Unternehmen Vergleiche in Form von Einzelkämpfern. Diese können Leistungsträger sein und ein Team pushen oder auch Egoisten, die sich nicht an Prozessen beteiligen. Hier haben Führungskräfte die gleiche Aufgabe wie Trainer im Fußball: dies zu erkennen und durch Training im Team, Mannschaftsbesprechungen z. B. über die Taktik oder Einzelgespräche mit betroffenen Spielern (Mitarbeitern) abzustellen. Ansonsten agieren Unternehmen hektisch, improvisieren den Geschäftsalltag und sind unstrukturiert. Die Arbeitsweise ähnelt in dem Fall eher der Hektik und dem Prinzip Zufall, wie man es vom Tischfußball kennt.
B wie Business Model Innovation
Innovationen werden in vielen Unternehmen noch mit der technischen Entwicklung von Produkten gleichgesetzt oder auf diese reduziert, obwohl Prozessinnovationen, Verfahrensinnovationen, Serviceinnovationen, Vertriebsinnovationen und/oder Geschäftsmodellinnovationen den Innovationsbegriff in den letzten Jahren deutlich erweitert haben. Der Begriff Business Model Innovation dagegen bezeichnet erfolgreich umgesetzte Innovationen im Geschäftsmodell von Unternehmen. Im Gegensatz zur Entwicklung der o. g. unterschiedlichen Innovationsarten geht es bei Business Model Innovation vor allem um die Monetarisierung von Produkt-, Service- oder Geschäftsmodellinnovationen. Zentrale Aufgabe besteht darin, wie Nutzen und Mehrwert aus Kundensicht generiert werden, innovative Vertriebswege umgesetzt und neue Modelle zur Monetarisierung eingeführt werden. Dem entsprechend umfasst Business Model Innovation auch Marketing (Formulierung einer innovativen Value Proposition), Vertrieb und Vertriebsmodell sowie die Monetarisierung. Auch die Veränderung einer Monetarisierung wie z. B. ein Miet- oder Leasingmodell anstatt wie bisher der Kauf eines Produktes oder einer Dienstleistung kann in bestimmten Märkten oder Segmenten eine Business Model Innovation darstellen.
B wie Business Transformation
Unter dem Begriff Business Transformation versteht man eine fundamentale Neuausrichtung des eigenen Geschäftsmodells und somit die Veränderung im wirtschaftlichen und gesellschaftlichen Umfeld eines Unternehmens. Infolgedessen werden mehr oder weniger alle Beziehungen eines Unternehmens neu definiert. Hierbei unterscheidet man vier Varianten:
- Reframing: beschreibt die strategische Neuausrichtung der Positionierung von Unternehmen. Purpose und Markenkern werden verändert
- Restructuring: beschreibt die Restrukturierungsmaßnahmen im Unternehmen zur Verbesserung der Wettbewerbsposition
- Revitalizing: beschreibt den Prozess des Wachstums durch Revitalisierung. Hierbei geht es um eine Rückbesinnung und Fokussierung der ursprünglichen Kernkompetenzen
- Renewing: beschreibt die Neupositionierung durch eine Erneuerung, in dem die Organisation zu neuen Kompetenzen befähigt wird.
B wie Business Wargaming
Business Wargaming ist eine dynamisch strategische Simulationsmethode, mit der externe Einflüsse wie zukünftige Marktentwicklungen oder dynamische Veränderungen im Verhalten von Kunden und Wettbewerbern veranschaulicht werden. Gerade durch die agilen und dynamischen Geschäftsmodelle im Umfeld von Startups gewinnen zukunftsgerichtete Simulationsmethoden wie Business-Wargaming an Bedeutung. Die Betrachtung von längeren Zeiträumen, wie dies gerade bei Szenario-Analysen oft gemacht wird, ist oft nicht zielführend. Kürzere Zeiträume spiegeln die Situation volatiler Märkte besser wider. Der martialische Name (im deutschen „Kriegsspiel“) hat seinen Ursprung in der Militärplanung, bei der es um die umfassende Analyse des Umfeldes und dem Durchspielen von Simulationen geht, mit denen Erkenntnisse für den Ernstfall gewonnen werden. Das älteste Wargame wurde lt. Überlieferung vor über 5.000 Jahren durch den chinesischen General und Militärphilosophen Sun Zi entwickelt. In diesem ging es darum, als Erster den Spielgegner zu umzingeln. Schon damals war es die vorherrschende Philosophie, einen militärischen Konflikt durch eine Einkesselungsstrategie erfolgreich zu lösen. Weitere Spiele, die einen Konflikt als Ausgangssituation haben, sind z. B. das japanische Go, das koreanische Baduk oder das indische Chaturanga. In Europa dürfte das ursprünglich aus Persien stammende Schach das bekannteste Spiel dieser Art sein. Militärforscher gehen davon aus, dass der Einsatz von Wargames einen nicht unerheblichen Anteil am Aufstieg Preußens zur europäischen Großmacht hatte. Denn diese Methode wurde zunächst zur Ausbildung und später zur Entwicklung von Kriegsstrategie und -taktik eingesetzt. Wargames wurden genutzt, um Reaktionen der Gegner zu antizipieren und dadurch selbst durchdachter und auf strategischer Ebene proaktiver handeln zu können. Seit Mitte des 20. Jahrhunderts wird die Wargaming-Methode auch im ökonomischen Kontext eingesetzt. So entwickelte die „American Management Association“ 1956 die „Top Management Decision Simulation“, die heute als das erste ökonomische Planspiel gilt. Zwei Jahre später entwickelte die renommierte Harvard Universität eine Wargaming-Methodik im ökonomischen Umfeld.
Aus den, mit mehreren Spielparteien simulierten, „Was-wäre-wenn“-Szenarien können Wechselwirkungen von zukünftigen Handlungen abgeschätzt werden. Das Ergebnis eines Business Wargames kann eine robustere Strategie, eine verbesserte Reaktionsfähigkeit oder ein komplett neues Geschäftsmodell sein, siehe auch →Kill the Company. Während sich klassische Planspiele in der Regel auf einer operativen Ebene bewegen, setzen sich Business Wargames mit strategischen Optionen auseinander. Typische Anwendungen sind neue Geschäftsmodelle oder der Eintritt in neue Märkte, die Positionierung von Pricing-Strategien oder die Einführung von Innovationen. Auch bei der Suche nach strategischen Allianzen im Markt sind Methoden aus dem Business-Wargaming geeignet. Sie sind das ideale Werkzeug im Risikomanagement.
B wie Buyer Personas
Um Strategien, Konzepte oder Kampagnen auf eine bestimmte Gruppe von Menschen auszurichten, wurde früher der unscharfe und dehnbare Begriff der „Zielgruppe“ verwendet. Dieser Begriff stand mal für das Gesamtpotenzial eines Marktes, dann wiederum nur für die Menge in einem Teilmarkt (Branche) oder auch für eine spezifische Gruppe aus einer Marktsegmentierung. Weiterhin wurde der Begriff unsauber verwendet in der Ansprache von Kunden oder Bedarfsgruppen oder auch potenziellen Neukunden. Ausgewählt wurden diese nach unterschiedlichen Kriterien. Dies kann nach soziodemografischen Faktoren wie z. B. Alter, Geschlecht, Generation, Bildung, Kaufkraft usw. erfolgen oder nach Handlungen wie z. B. Neukunde, wiederkehrender oder langjähriger Bestandskunde. Auch psychologische Merkmale oder die Informations- und Kommunikationskanäle können heran gezogen werden.
Nicht erst durch die viel zitierten statistischen Zwillinge Prinz Charles und Ozzy Osborne ist bekannt, dass eine Zielgruppenbeschreibung für Marketing, Vertrieb und Produktmanagement viel zu ungenau und unspezifisch ist. Infolgedessen werden heute zunehmend Buyer Personas eingesetzt, die sehr viel konkreter und spezifischer sind, als es Zielgruppen jemals sein können. Hierbei handelt es sich um eine auf empirischen Informationen, gezielter Recherche, qualifizierter Marktforschung und echten Kundenangaben und -daten erstellte reale Nutzerbeschreibung (Kunden-Avatar), die das unspezifische Bild einer Zielgruppe durch tiefgründiges Hintergrund- und Detailwissen ablöst. Durch die Anwendung von Buyer Personas ändert sich die grundsätzliche Haltung von Unternehmen in ihrer Kundenbeziehung. Man „zielt“ nicht auf seine Kunden, sondern kennt ihre Bedürfnisse, Erwartungen und Herausforderungen, um spezifische und relevante Angebote darauf abzustimmen. Kundenfokus und -zentrierung bekommt ein konkretes Gesicht zu einer echten Person und keine fiktive und abstrakte Beschreibung einer unspezifischen Gruppe. In Folge dessen sind Produkt- und Kundenkommunikation besser aufeinander abgestimmt und sind eindeutiger, zielgerichteter und effektiver. Egal, ob neue Website, neues Verpackungskonzept, ein bevorstehender Markenlaunch, Kampagnen und Promotion-Aktionen oder die strategische Sortimentsausrichtung: nur wer eine hohe Kundenempathie hat, kennt die Bedürfnisse, Erwartungen und Herausforderungen seiner Kunden und kann relevante Angebote zum richtigen Zeitpunkt auf dem geeigneten Kanal und im gewünschten Format anbieten.
BaaS (Backend-as-a-Service)
B wie BaaS (Backend-as-a-Service)
Der Begriff „Backend as a Service“ (BaaS) beschreibt die Bereitstellung einer gehosteten Backend-Infrastruktur. BaaS ist ein Service des →Cloud-Computing und bietet Entwicklern die Möglichkeit, schnell und einfach ein individuelles Backend konfigurieren zu können. Somit müssen diese nicht mehr die komplette Infrastruktur für eine Web-Anwendung selbst programmieren und können sich komplett auf die Gestaltung des Frontends konzentrieren. Ein weiterer Vorteil liegt darin, dass die Wartung des Backend entfällt. Diese liegt beim Anbieter des Service. Die Funktionsweise des BaaS-Anbieters gleicht dem Hosting einer Website. Er liefert die Anwendung mit unterschiedlichen Funktionen, so dass Entwickler die verfügbaren Daten zu einem individuellen Backend zusammenführen können. Auf dieses greifen die Entwickler über eine vom BaaS-Anbieter bereitgestellte Schnittstelle mit Hilfe von APIs oder einer REST-Schnittstelle zu. BaaS-Lösungen enthalten in der Regel eine Vielzahl unterschiedlicher Funktionen wie z. B. das Management der Datenbanken, automatische Updates des Backends, Nutzerauthentifizierung oder Social Log-Ins. Wie bei …as-a-Service-Angebote üblich zahlen Nutzer nur für die Kontingente, die in Anspruch genommen werden. Skalierungsmöglichkeiten sind bei Web-Anwendungen ein entscheidender Faktor, der großen Einfluss auf die Kosten haben kann. Hier bietet Backend as a Service den Vorteil, da die Skalierung wie auch die Handhabung beim BaaS-Anbieter liegt bzw. diese vom Anbieter vorgegeben wird.
BABOK
B wie BABOK
BABOK ist ein Akronym für Business Analysis Body of Knowledge (vollständig, einheitlich, richtig, umsetzbar, änderbar, eindeutig und testbar).
Backlog
B wie Backlog
Der Begriff Backlog wird übersetzt mit Rückstand oder Rückstau, Nachholbedarf oder Auftragsüberhang und beschreibt eine Sammlung von Dingen, insbesondere unvollständige Arbeit oder Angelegenheiten, die erledigt werden müssen. Diese Liste von Aufgaben bzw. Anforderungen, die von einem Team abgearbeitet bzw. realisiert werden sollen, ist allerdings kein Lasten- oder Pflichtenheft. Denn gegenüber einer statischen to-do-Liste früherer Prägung setzt agiles Projektmanagement auf flexible und dynamische Methoden, um auf Veränderungen iterativ reagieren und neue Priorisierung vornehmen zu können. Die unterschiedlichen Arten von Einträgen werden Backlog Items genannt. Hierzu gehören u. a. die funktionalen Anforderungen, Qualitätsanforderungen, User und Job Story, Use Case und andere. Idealerweise enthält jedes Item eine Beschreibung, eine Priorität, eine Aufwandsschätzung und einen messbaren Kundennutzen. Je höher die Priorität eines Items ist, umso genauer muss es spezifiziert werden. Backlogs werden in drei Arten unterschieden:
- →Product Backlog,
- →Release Backlog und
- →Sprint Backlog.
Sind im Rahmen einer Entwicklung verschiedene Teams involviert, wird mit Team Backlogs gearbeitet und die Items entsprechend auf die jeweiligen Team verteilt. Ist nur ein Team involviert sind Release und Team Backlog identisch. Der aktuelle →Scrum Guide kennt nur die beiden Begriffe Product und Sprint Backlog.
Balanced Innovation Scorecard
B wie Balanced Innovation Scorecard
→Innovation Balanced Scorecard
Barcamp
B wie Barcamp
Ein Barcamp (nicht zu verwechseln mit einem →Basecamp) wird auch als Unkonferenz, Mitmach-Konferenz oder Ad-hoc-Nicht-Konferenz bezeichnet, da es sich von klassischen Veranstaltungen deutlich unterscheidet. Während bei herkömmlichen Konferenzen vom Veranstalter Sprecher gebucht werden, gibt es auf Barcamps nur Teilnehmer. Es handelt sich um ein offenes Veranstaltungsformat mit offenen Workshops, deren Inhalte und Ablauf von den Teilnehmern zu Beginn der Veranstaltung selbst entwickelt und im weiteren Verlauf eigenverantwortlich gestaltet werden. Barcamps sind eine Form der Gruppenmoderation. Sie haben Ähnlichkeiten mit →Open Space, sind aber lockerer organisiert. Ein Barcamp besteht aus Vorträgen und Diskussionsrunden (so genannte Sessions), die zu Beginn des Barcamps auf Whiteboards, Metaplänen oder Pinnwänden – in so genannten Grids (Stundenplan) – durch die Teilnehmer selbst koordiniert werden. Alle Teilnehmer sind aufgefordert, selbst einen Vortrag zu halten oder zu organisieren. Das Motto eines Barcamp lautet: Geben und Nehmen, die Philosophie stellt alle auf Augenhöhe. Barcamps dienen dem inhaltlichen Austausch und der ergebnisoffenen Diskussion, können aber auch bereits am Ende der Veranstaltung konkrete Ergebnisse vorweisen. Diese können, falls gewünscht, im Rahmen des so genannten Konvergenzprozesses gewichtet und in einen Maßnahmenplan gebracht werden. Als →Open Innovation Veranstaltung bieten Barcamps viel Raum für unkonventionelle und innovative Wissensformate. Besonders typisch ist, dass die Veranstaltungen kostenlos sind und man in der Regel ohne Einladung teilnehmen kann. Ein wesentliches Element ist die soziale und fachliche Vernetzung der Teilnehmer – auch über das Barcamp hinaus – und der Spaßfaktor.
Basecamp
B wie Basecamp
Ein Basecamp (nicht zu verwechseln mit einem →Barecamp) ist ein spezielles Workshop-Format, das in der Regel eingesetzt wird, wenn eine Gruppe ausgewählter Teilnehmer für ein bestimmtes Thema (Teambuilding, Führungskräftecoaching, Managementklausur, Kick-off z. B. im Rahmen von Innovationsprojekten) sensibilisiert werden soll. Die auch als Smart Innovation Workshop bezeichnete Veranstaltung findet außerhalb des Unternehmens statt und wird häufig mit einem Rahmenprogramm verbunden. Das Ziel ist, die Teilnehmer aus ihrer gewohnten Routine heraus zu nehmen und abseits des Tagesgeschäfts die richtige Atmosphäre zu schaffen, damit Kreativität, innovative Ideen und freie Gedanken gefördert werden. In einem Basecamp werden oft mehr Ideen kreiert, als sonst im ganzen Jahr „nebenher“.
Basistechnologie
B wie Basistechnologie
→Technologietyp
Baudrohne
B wie Baudrohne
In der Bauwirtschaft finden →Drohnen zunehmend ihre Anwendung in der Planung, in der Ausführung und in der Gebäudeunterhaltung. So werden Drohnen u. a. eingesetzt für die Inspektion und Überwachung, Bestandsaufnahme und Vermessung, Bauwerksprüfung und Baudokumentation. Baudrohnen werden vor allem in Bereichen eingesetzt, die für den Mensch nur schwer oder mit hohem Aufwand zugänglich sind. Außerdem übernehmen sie zunehmend gefährliche Aufgaben, die für den Mensch mit einem gewissen Risiko verbunden sind. Sie liefern spezifische und hoch detaillierte Daten zu einem Bruchteil der bisherigen Kosten und in deutlich kürzerer Zeit. Weitere Anwendungen sind die Erstellung von 3D-Modellen oder auch der Einsatz für Marketing- und Werbezwecke.
Bauen 4.0
B wie Bauen 4.0
Die Digitalisierung ist längst auch in der Bauwirtschaft angekommen. Bauen soll in Zukunft digitaler, modularer und stärker automatisiert werden. Der Zusatz „4.0“ steht stellvertretend für eine neue, durch Digitalisierung, Sensorik und Robotik geprägten Stufe industrieller Entwicklungen in der Baubranche. Mit neuen Technologien sollen die verschiedenen Phasen im Lebenszyklus eines Bauwerks wie Planung, Herstellung und Nutzung sowie neu auch dem Rückbau zukünftig auf ein und derselben Informationsgrundlage bearbeitet werden: dem digitalen Gebäudepass, der in seiner Ausprägung das digitale Gebäudemodell – auch als BIM (Building Information Modeling) bezeichnet – durch zusätzliche Informationen erweitert. In der Bauwirtschaft gilt BIM als Methode der Zukunft für Planung und Abwicklung von Bauvorhaben und somit zentrales Element der Digitalisierung der Branche. Die Idee dahinter beschreibt eine geschlossene, digitale Prozesskette, in der sämtliche Phasen im Bauprozess transparent und miteinander verknüpft sind. Darüber hinaus gehören industrielle Vorfertigung und modulare Bauweise genauso zum Bauen 4.0 wie Automatisierung, Robotik und technische Entwicklungen wie z. B. das 3D Druckverfahren von Gebäuden.
Bauroboter
B wie Bauroboter
Die interdisziplinäre Wissenschaft der Roboter ist die →Robotik. Der Begriff stammt ursprünglich vom tschechischen Wort Robota ab und bedeutet so viel wie „Arbeit“. Heute wird ein Roboter als ein automatisch gesteuertes, frei programmierbares Mehrzweckgerät bezeichnet, mit dem Material, Werkstücke, Werkzeuge oder Spezialgeräte bewegt werden kann. Der frei programmierbare Bewegungsablauf in drei oder mehr Achsen macht ihn für verschiedenste Aufgaben einsetzbar. Roboter werden in der Automatisierungstechnik entweder an einem festen Ort oder beweglich angeordnet. Aufgrund der Vielzahl unterschiedlicher Anwendungen und Einsatzgebiete werden Roboter anhand von fünf spezifischen Merkmalen (Aufgabe, Einsatzgebiet, Morphologie, Mobilität und Autonomie) unterschieden. In der Baurobotik werden drei Kategorien unterschieden:
- Teleoperierte Bauroboter (nicht autonom wie z. B. Bagger)
- Programmierbare Bauroboter (computergesteuert und z. B. mit Sensoren ausgestattet wie z. B. 3D-Baggersteuerung)
- Intelligente Bauroboter (halb- oder vollständig autonom, zum Teil unter Einsatz von künstlicher Intelligenz)
Zur dritten Kategorie gehören auch Bauroboter, die wiederkehrende Aufgaben wie Maurer- oder Schweißerarbeiten übernehmen. Diese werden als Single-task Construction Robots (STCRs) bezeichnet. Aktuell werden Bauroboter hauptsächlich noch in der digitalen Vorfertigung eingesetzt oder in hybriden Umgebungen wie z. B. dem →3D Druck. Zukünftig geht es darum, durch so genannte Exoskelette die Vorteile menschlicher Arbeitskraft und Roboter-gesteuerter Automation auch in der Baubranche miteinander zu verknüpfen. Durch Machine Learning werden diese Exoskelette künftig auch Daten im Arbeitseinsatz erfassen und analysieren. Beispiele für automatisierte und halbautomatische Bauroboter sind z. B. „Boston Dynamics Spot“ (ein mobiler Roboter für Inspektionsaufgaben auf dem Gelände einer Baustelle), „Dusty Robotics FieldPrinter“ (ein mobiler Roboter, der Grundrisse mithilfe von BIM-Daten in Originalgröße auf das Geschoss druckt), „Doxel“ (ein mobiler Roboter, der auf der Baustelle den Baufortschritt abscannt und mit dem BIM-Modell abgleicht) oder „Hilti Jaibot“ (ein mobiler Roboter für Bohr- und Montagearbeiten insbesondere Überkopfarbeiten). Thyssen Krupp Elevator hat z. B. eine Robotics-Interface-Plattform geschaffen, mit der Roboter Aufzüge benutzen und sich frei durch ein Gebäude bewegen können und dies auch zwischen unterschiedlichen Stockwerken. In wie weit humanoide Bauroboter den Handwerker auf der Baustelle ablösen und eins zu eins ersetzen wird, bleibt abzuwarten. Aktuell sieht es danach nicht aus.
Baustelle der Zukunft
B wie Baustelle der Zukunft
Mit dem Center Construction Robotics (CCR) entsteht auf dem Campus der RWTH Aachen die Baustelle der Zukunft mittels Digitalisierung. Auf der Referenzbaustelle werden neue Technologien und Automatisierungen sowie neue Bauprozesse, Bauprodukte, vernetzte Maschinen, der Einsatz von Robotern, Softwarelösungen sowie Lehr-, Arbeits- und Kommunikationskonzepte unter realen Baustellenbedingungen getestet. In dem Reallabor geht es von der industriellen Vorfertigung von Bauelementen bis hin zur automatisierten Baustelle. Das Ziel ist der Aufbau eines weitreichenden europäischen sowie regionalen Netzwerks für Forschungs-, Industrie- und Lehrkooperationen im Bereich der Transformation des Bauens. Somit können die Forschungserkenntnisse und Lehrkonzepte direkt in die Wirtschaft einfließen und gezielte Entwicklungs- und Weiterbildungsprojekte angeboten werden.
Baustoffe der Zukunft
B wie Baustoffe der Zukunft
Innovative Baustoffe der Zukunft sind über den gesamten Produktlebenszyklus umweltfreundlich, intelligent und vernetzt, leistungsfähig und lange haltbar, wiederverwendbar oder hochwertig recycelbar und dazu frei von Schadstoffen. Sie sind der Schlüssel für klimaneutrales, modulares und wohngesundes Bauen und die Antwort auf Verknappung der Ressourcen wie Rohstoffe, Fachkräfte usw. Nachfolgend sollen einige interessante und vielversprechende Entwicklungen vorgestellt werden.
Auch wenn es um die Nanotechnologie ein wenig ruhiger geworden ist, gehören nanoskalierte Baustoffe immer noch zu den interessanten Entwicklungen, deren Potenzial noch lange nicht abgeschlossen ist, sei es in Form zugegebener Additive in Nanogröße oder durch die physikalisch-chemische Veränderung der nanoskaligen Oberfläche. Eine interessante Entwicklung in dem Zusammenhang ist Aerographit, was derzeit als leichtester Baustoff der Welt gilt und bis zu 75 Mal leichter ist als Styropor. Er besteht aus Kohlenstoffröhrchen, die auf Nano- und Mikroebene ineinander verwoben sind. Dennoch hält das Material hohen Druck- und Zugbelastungen stand. Außerdem ist Aerographit elektrisch leitfähig, verformbar und undurchsichtig.
Intelligente Fenster nutzen die Nanotechnologie, in dem die hindurchgelassene Menge an Licht und Wärme vom Nutzer über eine App gesteuert werden kann. Die Fenster selbst bestehen aus transparenten Solarpaneelen, über die das Gebäude mit Energie versorgt wird.
Seit einigen Jahren werden nanoskalierte Aerogele auf Silicatbasis zur thermischen Isolierung von Gebäuden eingesetzt. Die aus dem Nanogel hergestellten Beschichtungen weisen eine bis zu 3 Mal niedrigere Wärmeleitfähigkeit als Luft auf und eignen sich als Alternative zu klassischen Wärmedämm-Verbundsystemen im Rahmen der energetischen Gebäudesanierung.
Eine andere Entwicklung ist ein lichtdurchlässiger Faserbeton, der für bis zu 20 cm dicke, transluzente Wände verwendet werden kann. Die Wände bestehen aus einer homogenen Verbindung aus Glasfasern und einem sehr feinkörnigen Beton, der die hohe Lichtdurchlässigkeit sicherstellt.
Beton ist nach wie vor der am meisten genutzte Baustoff der Welt, auch wenn er Risse bekommt, sobald er chemischen Substanzen oder Wasser ausgesetzt ist. Seit einigen Jahren werden spezielle Bakterienstämme eingesetzt, die Calciumcarbonat produzieren, sobald sie mit Wasser in Kontakt kommen. Infolgedessen beginnen diese Mikroorganismen selbständig mit der Reparatur und dem Verschluss der feinen Risse. Experten gehen von einer Haltbarkeit selbstheilender Betone von 200 Jahren aus.
Eine der vielversprechendsten Entwicklungen ist Carbonbeton. Hierbei ersetzt der Hightech-Werkstoff Carbon die schweren Stahlstäbe und -matten im Stahlbeton. Der Verbundwerkstoff aus Beton und Kohlenstofffasern (Carbon) ist 4 Mal leichter, 4 Mal dichter und 5 bis 6 Mal tragfähiger. Dadurch werden Betonwände schlanker und benötigen weniger Material. Nach Angaben der Forscher können bei biegebeanspruchten Bauteilen wie Träger oder Unterzügen bis zu 50% Beton eingespart werden. Ebenfalls um 50 % reduziert sich der CO2-Ausstoß. Carbonbeton verfügt über mehr Festigkeit, Haltbarkeit und Leichtigkeit als herkömmlicher Beton und rostet nicht. Da sich diese flexible Bewehrung fast allen Formen anpassen kann, sind auch filigrane Bauten möglich. Allerdings werden herkömmliche Carbonfasern aus Erdöl gewonnen. Forscher arbeiten bereits daran, diese Faserbewehrung in Zukunft stattdessen aus nachwachsenden Rohstoffen wie Lignin, Flachs oder mithilfe von Algen aus Kohlendioxid herzustellen.
Eine ähnlich interessante Innovation ist Holzbeton, bei dem der Kies- und Sandanteil durch feingeschliffenes Holz ersetzt wird. Der Volumenanteil des Sägemehls beträgt bis zu 50%, so dass Holzbeton bedeutend leichter ist als herkömmlicher Beton und dennoch genauso fest und zudem feuerfest.
Die Menge an Schadholz ist in den letzten Jahren massiv angestiegen und bietet nun den Ausgangspunkt für die nächste innovative Idee. Bei dieser wird das Schwach- und Schadholz in Steinform gepresst, aufeinandergestapelt und mit Holzdübeln verbunden, so dass auf künstliche Verbindungsmittel verzichtet werden kann.
Hoch belastbare und gleichzeitig dünne Bodenelemente mit einer Dicke von nur 2 cm aus einer betonähnlichen Spezialmischung kommen ohne eine zusätzliche Stahlbewehrung aus und weisen eine Gewichtsreduktion von 70% auf. Die Ursache liegt in gewölbten und geometrisch geformten Platten.
Neu sind auch sog. Biokunststoffe. Einer davon übertrifft mit seiner Biegesteifigkeit und Zugfestigkeit selbst Stahl und Spinnenseide, die bisher als das stärkste biologische Material galt. Das ultrastarke Material besteht aus Zellulose-Nanofasern und ist biologisch abbaubar. Seine besonderen Eigenschaften erhält der Biokunststoff durch ein neues Produktionsverfahren, bei dem viele kleine Fasern zusammengepresst werden (hydrodynamische Fokussierung).
Die Bedeutung und der Einsatz natürlicher und nachwachsender Rohstoffe wird in den nächsten Jahren zunehmen. Neben Holz gehört hierzu auch Hanf, der nicht nur als Bewehrung sondern auch für hoch wärmedämmende Steine eingesetzt wird. Hanfsteine absorbieren nicht nur Feuchtigkeit, sondern auch Lärm. Eine ähnliche Entwicklung sind Wollziegel, die aus Lehm, Wolle und einem natürlichen Polymer aus Meeresalgen bestehen. Nach Angaben der Forscher sind diese Steine bis 40% kältebeständiger als konventionelle Ziegel.
Pilze sind Grundlage für die nächste Innovation. Hierbei wird das Myzel, die fadenförmigen Zellen des Pilzes, mithilfe eines speziellen Verfahrens zu einem Dämmstoff weiter verarbeitet. Nach Angaben des Herstellers ist der Bio-Dämmstoff nicht nur leicht, sondern auch biologisch abbaubar, feuerfest und gesundheitlich unbedenklich.
Eine ähnliche Entwicklung basiert auf expandierten Maiskörnern, besser bekannt unter dem Begriff Popcorn. Aufgrund der geringen Wärmeleitfähigkeit eignet sich das Material besonders gut als Dämmung. Der größte Vorteil der Spanplatten, die aus einem Drittel Popcorngranulat und zwei Drittel Holzspänen bestehen, ist das geringe Gewicht.
Aus dem Meer kommt möglicherweise der Ersatz für Steinwolle. Abgestorbenes Seegras eignet sich als Dachdämmung, als Kerndämmung im Mauerwerksquerschnitt oder in Form von Platten bei einem WDVS. Die Alternative ist aufgrund des hohen Salzgehaltes weniger leicht entflammbar als herkömmliche Dämmstoffe, hat vergleichbare Dämmwerte und ist resistent gegen Fäulnis und Schädlinge. Hinzu kommt, dass Fasern aus Seegras relativ viel Feuchte aufnehmen kann, ohne an Dämmwirkung und Massenvolumen zu verlieren.
Kartoffelschalen sind Ausgangsprodukt, einerseits für spezielle Bauplatten und andererseits als Zusatz in Beschichtungen und Belägen, um diesen nicht nur die nötige Konsistenz zu verleihen, sondern um das potenziell hochgradig krebserregende Bindemittel Formaldehyd zu ersetzen.
Diese Auflistung erhebt nicht den Anspruch auf Vollständigkeit. Weitere Ansätze wie z. B. Urban Mining mit Rezyklaten und dgl. würden den Rahmen an dieser Stelle sprengen. Die Baustoffindustrie braucht mehr Kreativität für nachhaltige und ganzheitliche Lösungen. Hierzu gehören neben Hightech-Materialien und smarten Baustoffen auch integrative Systeme und innovative Technologien. Besonders spannend ist die Entwicklung des „idealen“ Baustoffs, der auf ein KI-gestütztes Datenmodell die Bedürfnisse des Bauherren von morgen abdecken soll.
Berufe der Zukunft
B wie Berufe der Zukunft
Die Transformation der Wirtschaft sowie permanente Veränderung von Kundenbedürfnissen und Angeboten wird zwangsläufig neue Berufe hervorbringen. Einige von ihnen gibt es bereits in ersten Tendenzen, andere wiederum werden in den nächsten Jahren erst entstehen. Nachfolgende Beispiele stehen symbolisch für zukünftige Berufe im Marketing und der Digitalisierung:
- Der Data Ethnographer arbeitet mit Echtzeitdaten an allen digitalen Touchpoints, um Erkenntnisse über Kunden zu gewinnen und Empfehlungen für Kampagnen, Kanäle und Formate für die gesamte Marketingorganisation abzugeben. Spezialisierte Datenethnographen werten nicht einfach „nur“ Zahlen aus. Ihre besondere Kompetenz besteht darin, in diesen Daten herauszulesen, wie Kunden mit Marken interagieren. Hierbei sind es oftmals nur Nuancen, um zu erkennen, wie Kunden „ticken“. Erfahrene Datenethnographen konzentrieren sich in einer zunehmenden Datenexplosion und Vielfalt unstrukturierter und unrelevanter Informationen auf das Wesentliche. Ihre Erkenntnisse sind Inspiration für neue Ideen und völlig neue Vermarktungsperspektiven und Marketingstrategien.
- Der Purpose Planner erarbeitet eine Mission und Vision und fokussiert sich hierbei auf den Beitrag des Unternehmens für die Gesellschaft allgemein sowie speziell für Kunden und potenzielle Mitarbeiter. In seiner Betrachtung spielt die Differenzierung aus Kundensicht eine deutlich größere Rolle. Die Aufgabe besteht aber nicht nur in der Konzeption und Erstellung, sondern der permanenten Weiterentwicklung und in der Funktion als Kommunikationskatalysator im gesamten Unternehmen. Purpose Planner identifizieren soziale Ursachen und fördern den Fluss von Informationen, Ideen, Inhalten und Einfluss mit internen und externen Stakeholdern. Ihre Rolle wird langfristig eine positive Einstellung in Bezug auf das Unternehmen, seiner Marke und die von ihm angebotenen Produkte und Dienstleistungen hervorrufen. Grundlage hierfür ist, dass immer mehr Kunden Geld, Zeit und Loyalität in Marken investieren, mit denen sie sich identifizieren können und die für die gleichen Werte stehen. Der Purpose Planner ist der Schlüssel zur Schaffung dieses Bewusstseins.
- Die Sicherstellung von Qualität, Authentizität und Konsistenz von Content in Richtung sämtlicher Streaming-Geschichten und Narrative über eine Vielzahl von Kanälen, einschließlich Filmen, TV-Serien, Podcasts, Chatbots und Videospielen ist die Aufgabe des Master Storytellers. KI wird bereits verwendet, um Werbung zu erstellen, Advertorials zu schreiben und Dialoge in Chatbots zu generieren. Der Master Storyteller stellt sicher, dass auf allen Formaten die gleichen (nicht dieselben) Inhalte kommuniziert werden.
- Loyalty Engineering ist ein neues Kompetenzangebot im Marketing und zielt darauf ab, Kunden in ihren unternehmerischen Erwartungen stärker abzuholen und hierbei in Einklang mit den Marken zu bringen. Das Aufgabengebiet des Loyalty Engineer besteht darin, Angebote zu kreieren, mit denen Kunden Geld verdienen können. Sie hören auf die Bedürfnisse von Kunden, identifizieren diese und setzen ihre Erkenntnisse z. B. in wertschöpfende Online-Tutorials, Events oder exklusive Kundenbindungsprogramme um. Dies schafft langfristige Loyalität zu Unternehmen, Marken, Produkten und Dienstleistungen.
- Die Aufgabe von Neuro-A/B-Testern besteht darin, bei kommerziellen Transaktionen zu helfen, Daten über Erlebnis- oder Sinneskampagnen zu sammeln. Marketingorganisationen können aus diesen ersten Eindrücken viel lernen und durch Überwachung und Auswertung von Gehirnsignalen (Opt-In) beurteilen, wie Kunden z. B. auf ein Produkt, eine Dienstleistung oder Angebote reagieren. Klassische Umfragen und Marktforschung in Fokusgruppen funktioniert immer seltener. Die Ergebnisse der Neurowissenschaften sind in der Beurteilung des Kundenverhaltens deutlich zuverlässiger. Sie nehmen die menschliche Fehlbarkeit aus der Gleichung und stellen objektive und reproduzierbare Daten aus der qualifizierten Hirnforschung zur Verfügung. Neuro-A/B-Tester analysieren die Gehirnaktivität von Kunden bei der Durchführung von experimentellen oder sensorischen Kampagnen (z. B. am Point of Sale). Durch die Arbeit der Hirnforscher kann die Customer Journey noch weiter optimiert, personalisiert und perfektioniert werden.
- Seit einigen Jahren werden personalisierte Beschaffungsdienste auf der Basis von KI und Algorithmen angeboten, die Kunden mit einer Vielzahl von Marken, Produkten und Angeboten durch Drittanbieter verbinden. Bots übernehmen die Arbeit (und das Denken der Kunden). So gibt es z. B. die Modemarke, die mithilfe von KI einmal im Monat eine personalisierte Schachtel mit Kleidung ausliefert, damit der Kunde sie zu Hause ausprobieren kann. Gleiches gibt es im Bereich von Lebensmitteln, Kosmetik usw. Promoter dieser „Aggregator-Marken“ sind Personal-Shopper-Bots. Der Interbrand Marketer hilft hierbei die Geschäftsbeziehung zu den aufkeimenden Influencer Kanälen aufzubauen und zu pflegen, einschließlich Virtual-Shopper-Plattformen, Virtual Concierges, In-Box-Lifestyle-Plattformen und Content-Streamer. Der Interbrand-Marketer verfügt über umfangreiche Erfahrung im B2B- und Influencer-Marketing.
- Die Aufgabe des Mood & Empathy Managers besteht in der Fähigkeit, dass Marketingaktivitäten mit den Absichten, Motivationen und Emotionen der Kunden in Einklang stehen. Diese sollten mit den Bedürfnissen der Kunden übereinstimmen und eine optimale Kombination aus Emotionen und empathischer Reaktion von Kunden hervorrufen. Er ermittelt somit, wie sich ein Kunde instinktiv zu Unternehmen, Marken und Produkten fühlt und wird unverzichtbarer Bestandteil der modernen Markenführung. Im Ergebnis entsteht aus aktiven Bestandskunden eine langfristige Markentreue und -loyalität.
- Der Personal Feedback & Appraisal Designer entwirft und testet KI-Mechanismen, um das Feedback aus Hunderttausenden oder Millionen von Kundeninteraktionen aus der Customer Journey zu sammeln, zu selektieren und automatisch mit personalisierten Antworten und Empfehlungen zurück zu senden. Die besondere Herausforderung besteht darin, dass die hyperpersonalisierten und kontextbezogenen Erfahrungen während der gesamten Customer Journey automatisiert werden. Im Ergebnis haben zufriedene und somit treue und loyale Kunden das Gefühl, dass ihre Marke jeden Wunsch und jedes Bedürfnis wahrnimmt und im Sinne einer Customer Centricity und Brand Experience umsetzt.
- Der Simulation Assistant ist Teammitglied im Simulationsmarketing und arbeitet dem Simulationsplaner und Branchenstrategen zu. Seine Aufgabe besteht darin, prädiktive Informationen zu sammeln und zu verknüpfen, um zukünftige Kundenszenarien für die Angebote zu modellieren. Das Leistungsportfolio ist hierbei sehr breit gefächert: von einfachen Infografiken und komplexen virtuellen Simulationen über Neuro-A/B-Tests bis hin zum virtuellen Klon. Außerdem verwaltet der Simulationsassistent das Prototyping und ist für Test und Rollout von Simulationserfahrungen verantwortlich. Hierbei greift er auf Predictive Intelligence, Szenarioplanung und VR-Tools zurück. In einer simulierten Welt geht es darum, die Vorhersage-Theorie zu einer greifbaren Erfahrung zu machen.
- Der Sixth Sense Analyst ist ein Trendscout. Seine Aufgabe sind Trends rechtzeitig zu erkennen und für Marketing- und Verkaufskampagnen aufzubereiten. Seine besondere Stärke liegt darin, seinen „sechsten Sinn“ mit KI-Algorithmen und schnellen, iterativen Markteinführungstools zu kombinieren, um das Markenerlebnis „von morgen“ zu definieren. Die Analyse des projizierten Verhaltens durch Bedarfs- und Zielgruppen wird im Marketing der Zukunft ein wesentlicher Eckpfeiler.
- Der Subscription Strategist bringt die Kompetenzen eines Media Managers, kreativen Business Analyst und eines Produktmanagers mit, um komplexe, interaktive Ökosysteme zu verknüpfen und den Abonnementprozess zu vereinfachen, Cross-Selling- oder Upselling-Möglichkeiten zu identifizieren und diese mit den Angeboten von Drittanbietern zu vermitteln.
- Die Aufgabe des Haptic Planners besteht darin, die Wirkung von Werbekampagnen über eine Reihe von haptischen Effekten zu maximieren, damit sich diese instinktiv richtig anfühlen. Mit neuen Materialien und der Möglichkeit, ansprechende Texturen zu programmieren, ergeben sich vielfältige Möglichkeiten, haptische Oberflächen zu erzeugen. Diese sollen durch Berührung Neugierde und weiterführendes Interesse erzeugen. Der Haptic Planner arbeitet somit an der Schnittstelle zwischen Oberflächenhaptik und Beschaffung von Texturen, Materialien und Vibrationen.
- Der Machine Personality Designer verleiht digitalen Produkten eine einzigartige Stimme und einen unverwechselbaren Charakter. Diese dienen dazu, dass Kunden und Maschinen interagieren und hilft, KI-Anwendungen ein „authentisches Aussehen“, ein „menschliches Gefühl“ oder einen „emphatischen Charakter“ zu verleihen. Im Ergebnis soll aus einer anonymen Transaktion ein digitaler Touchpoint entstehen, der dem Kunden das Gefühl gibt, gut betreut worden zu sein und „gerne wieder zu kommen“. Der Machine Personality Designer muss ein intuitives Verständnis und eine Leidenschaft für Menschen, Kultur, Ethnographie, Soziologie und Branding mitbringen – und ein multidisziplinäres Team führen können.
- Der In-World-Marketing Architect platziert Product-Placement in virtuellen Räumen. Hierbei kommt es zu einer Verschmelzung zwischen virtueller Realität, Augmented Reality, Videospielen, Filmen und 3D Animationen. Content dieser Art wird in den nächsten 5 Jahren mehr als 90% der visuellen Informationsaufnahme ausmachen. Der In-World-Marketing-Architekt wird somit zum Experten der virtuellen Customer Journey. Er versteht die Motivation, Erwartung, Ziele und Reise der Bedarfs- und Zielgruppen im virtuellen Raum.
- Mikrointeraktionen finden überall und jederzeit statt. Der Micro-interaction Marketing Specialist analysiert diese Touchpoints und identifiziert Ansätze, um Kunden emotional an zu triggern und Entscheidungen oder Wahrnehmungen zu beeinflussen. Hierzu werden visuelle und sensorische Interaktionen verwendet.
- Der Head of Bot Creative ist für die Steuerung von Bots verantwortlich, die im kreativen Marketing zunehmend eingesetzt werden und höchst personalisierte Markenbotschaften mit hoher Relevanz individuell an Kunden verschicken. Hierbei muss sichergestellt werden, dass die Bots eine markenspezifische und authentische Botschaft verschicken, die gleichzeitig eine hohe Relevanz für den Kunden beinhalten. Der Head of Bot Creative bekommt im aufstrebenden Bereich des RIQ (Robotic Intelligence Quotient) eine immer größere Bedeutung. Er wird der entscheidende Filter in einer Welt der automatisch generierten kreativen Arbeit.
- In der vernetzten Welt der intelligenten Dinge sind es nicht mehr nur Menschen, die ihren Freunden Empfehlungen geben, sondern zunehmend eine Kombination aus Menschen und Algorithmen, die von KI und Machine learning angetrieben werden. Das Rennen um die Platzierung in Suchmaschinen von Maschine zu Maschine ist längst eröffnet (Business to Machine). Der Object Persuasion Manager versteht es, eine Logic Learning Machine (LLM) zu entwickeln. Hierbei „überzeugt“ ein algorithmisch-persönlicher Webassistent die Suchmaschinen, damit Marken, Produkte und Dienstleistungen im oberen Ranking auftauchen.
- Der Machine-/People-Ethics Manager stellt sicher, dass in Zeiten zunehmender KI und intelligenter Maschinen die ethischen Grundwerte nicht ignoriert werden.
- Der Customer Wellbeing Specialist ist die Antwort auf den Megatrend Gesundheit, Fitness und bewusste Ernährung und soll Menschen dabei helfen, ihr Wohlbefinden bei der Arbeit, zu Hause, im Urlaub oder an anderen digitalen Touchpoints der Markeninteraktion zu verbessern. Seine Aufgabe besteht darin, personalisierte Push- & Pull-Mechanismen einzusetzen, um das körperliche und geistige Wohlbefinden der Kunden zu verbessern – immer unter Berücksichtigung der sensiblen Thematik Datenethik.
- Der Science Liaison/Bio-Marketing Specialist kombiniert Wissenschaft mit Marketing und analysiert biometrische Daten. Wenn Kunden im Smart Home oder mit ihren Wearables interagieren, bietet sich die Möglichkeit einer personalisierten Markenkommunikation an. Hierzu verwendet der Bio-Marketing-Spezialist ausgewählte biometrischen Kundenmarker, um Lifestyle-Produkte zu kreieren und weiter zu entwickeln.
- Die Kombination aus relevanten Insights mit kreativer Inspiration führt zu neuen Marketing- und Vertriebskampagnen, bei denen Empathie und Expertise verknüpft werden. Neu daran ist die größtmögliche Agilität bei sich verändernden Marktbedingungen. Ein idealtypischer Creative Planner bringt Empathie und Neugier, Logik und Intuition, Visions- und Imaginationskraft, Kommunikationsvermögen und diplomatisches Geschick mit.
Big Data
B wie Big Data
Big Data ist ein unspezifischer Sammelbegriff für große Datenmengen, die zu groß, zu komplex, zu schnelllebig oder zu schwach strukturiert sind, um sie mit manuellen und herkömmlichen Methoden der Datenverarbeitung auswerten zu können. Außerdem steht der Begriff für den Prozess der Datafizierung und in einigen Fällen wird er synonym für digitale Technologien verwendet. Das „Big“ steht für acht Dimensionen
- volume (Umfang, Datenvolumen)
- velocity (Geschwindigkeit, mit der die Datenmengen generiert und transferiert werden)
- variety (Bandbreite der Datentypen und -quellen)
- veracity (Echtheit von Daten)
- value (unternehmerischen Mehrwert) und
- validity (Sicherstellung der Datenqualität)
- variability (Variabilität durch stetige Fluktuationen und großer Varianz)
- veracity (Richtigkeit in Bezug auf Datenqualität).
Big Data steht nicht nur für Quantität und Qualität von Daten. Entscheidend ist, was Unternehmen daraus machen. Die Erfassung, Analyse und Verarbeitung der Daten sollte dazu dienen, entweder Kosten zu senken oder Zeit zu sparen, neue Produkte und optimierte Angebote zu entwickeln oder fundierte Entscheidungen im Geschäftsmodell zu treffen. Deshalb liegt der Mehrwert nicht in den Daten an sich, sondern in der leistungsstarken Analyse.
Neben der Bedeutung als Verarbeitung von großen, komplexen und sich schnell ändernden Datenmengen steht Big Data auch als Buzzword für andere Bedeutungen wie z. B. der zunehmenden Überwachung (z. B. der Vorratsdatenspeicherung), zunehmende Intransparenz der Datenspeicherung durch Delokalisierung (Cloud Computing), der Verletzung von Intimsphäre und Persönlichkeitsrechten von Kunden, Automatisierung von Produktionsprozessen (Industrie 4.0, IoT), intransparente Automatisierung von Entscheidungsprozessen oder auch datengetriebenes Onlinemarketing.
Big 5 (der Persönlichkeitsmerkmale)
B wie Big 5 (der Persönlichkeitsmerkmale)
Die Big Five der Persönlichkeitsmerkmale sind der Grundstein für das so genannte OCEAN-Modell (nach den Anfangsbuchstaben von Openness, Conscientiousness, Extraversion, Agreeableness, Neuroticism). Mit diesem konnten die amerikanischen Psychologen Paul Costa und Robert McCrae nachweisen, dass die Charaktereigenschaften eines Menschen mit nur fünf Adjektiven beschrieben werden können – und dies auf der ganzen Welt. Anhand dieser Big Five Persönlichkeitsmerkmale lässt sich der individuelle Charakter eines Menschen in einem Profil zusammenfassen. Ursprünglich geht die Theorie hinter den Big Five auf die 1930-er Jahre zurück. Bis zu dem Zeitpunkt beschränkte sich die Persönlichkeitspsychologie auf eine Typologie von Menschen. Die Big Five Persönlichkeitsmerkmale dagegen beschreiben fünf grundlegende Charaktermerkmale, die jeder Mensch in unterschiedlich starker Ausprägung hat. Hierzu wurden sämtliche Begriffe, die im Zusammenhang mit der menschlichen Persönlichkeit stehen, zusammengetragen und in mehreren Phasen verdichtet. Damals ging man davon aus, dass sich die Persönlichkeit in der Wortwahl wiederspiegelt. Schlussendlich blieben aus mehr als 18000 Wörtern heterogener Absender nur fünf grundlegende Merkmale übrig, die für alle Menschen (mehr oder weniger) gelten. Die Big Five Persönlichkeitsmerkmale sind in der heutigen Persönlichkeitspsychologie eines der bekanntesten Modelle, um den menschlichen Charakter zu beschreiben. Dem Big Five Modell zufolge setzt sich der menschliche Charakter aus fünf weitgehend unabhängigen und kulturübergreifenden Eigenschaften (Dimensionen) zusammen:
- Offenheit für Erfahrungen (Aufgeschlossenheit in allen Lebenslagen sowie für das Normen- und Wertesystem)
- Gewissenhaftigkeit (Kompetenz, Ordentlichkeit, Perfektionismus, Pflichtbewusstsein, Leistungsstreben, Selbstdisziplin und Besonnenheit)
- Extraversion (Herzlichkeit, Geselligkeit, Extravertiertheit, Durchsetzungsfähigkeit, Aktivität, Frohsinn und Erlebnishunger)
- Verträglichkeit (Vertrauen, Rücksichtnahme, Empathie, Gutherzigkeit, Bescheidenheit, Altruismus, Freimütigkeit und Kooperationsbereitschaft)
- Neurotizismus (Verletzlichkeit, emotionale Labilität, Ängstlichkeit, Depression und Impulsivität)
Die Persönlichkeitspsychologie hat die Existenz dieser fünf Eigenschaften über alle Kulturkreise hinweg in über 3000 wissenschaftlichen Studien belegt. Sie gelten international als das universelle Standardmodell in der Persönlichkeitsforschung und der Big Five Persönlichkeitstest gehört bis heute zu den am häufigsten durchgeführten Tests, sowohl in der Forschung als auch in der Diagnostik. Dabei ist jedes der Big Five Persönlichkeitsmerkmale als Kontinuum zu verstehen: ein Mensch ist nicht entweder durchsetzungsstark, gewissenhaft, bescheiden oder ängstlich oder eben nicht, sondern befindet sich irgendwo auf einer Skala mit einer niedrigen, mittleren oder hohen Ausprägung. Die Forschung geht davon aus, dass einzelne Dimensionen in der Bevölkerung normalverteilt sind und somit die meisten Menschen eine Ausprägung im mittleren Bereich aufweisen. Sehr hohe oder sehr niedrige Werte sind eher selten. Eine hohe oder niedrige Ausprägung bedeutet, dass sich die Werte der Person signifikant vom Durchschnitt (Normwert) unterscheiden. Unterschiede in den Ausprägungen der Big Five lassen sich übrigens nur etwa zur Hälfte bis maximal Zweidrittel durch genetische Einflüsse erklären, der Rest wird durch das Alter und die Umfeldfaktoren beeinflusst. Im Kindes- und Jugendalter schwanken die Werte stark und bleiben erst nach dem 30. Lebensjahr weitgehend konstant. Dies ändert sich wieder ab einem Lebensalter von über 70 Jahre.
Alternativen zum Big Five Modell sind z. B. das bekannte →DISG-Modell, das →Hexagon-Modell oder das Enneagramm. All diesen Modellen ist gemein, dass sie andere Dimensionen annehmen als die Big-Five-Theorie oder diese um andere Faktoren ergänzen. So konzentriert sich das DISG-Modell auf vier vorherrschende Verhaltenstypen (anstatt fünf Charaktereigenschaften) und ist das weltweit führende Tool zur Optimierung der Kommunikation und zwischenmenschlichen Beziehungen (im Vergleich zum weltweit bekanntesten Persönlichkeitstest.
Big Tech
B wie Big Tech
Der Begriff Big Tech ist ein Synonym für Internet- und/oder Technologie-Giganten und bezeichnet die größten IT-Unternehmen der Welt. Da der Begriff allerdings nicht alle großen IT-Unternehmen umfasst, sondern nur die fünf größten: Google (Alphabet), Amazon, Facebook (Meta Platforms), Apple und Microsoft, werden diese auch Big Five oder (als Akronym) GAFAM bezeichnet. Auch das Akronym GAFA für die Big Four ohne Microsoft ist gebräuchlich. Alle fünf Unternehmen stammen aus den USA und haben in den vergangenen Jahr(zehnt)en nicht nur ein rasantes Wachstum hingelegt, sondern in ihren jeweiligen Segmenten eine monopolähnliche Stellung. Gemessen an ihrer Marktkapitalisierung stellen sie nicht nur die fünf wertvollsten Konzerne der USA dar, sondern zusammen mit Saudi Aramco die sechs größten Unternehmen der Welt.
Der Zusatz „Big“ wird in den USA gerne für Branchen verwendet, die so groß und mächtig geworden sind, dass sie politischen Druck auf die Gesellschaft ausüben kann (z. B. um Steuerzahlungen zu „optimieren“). Denn neben Big Tech gibt es auch Big Oil, Big Tobacco oder Big Pharma. Diese Unternehmen werden beschuldigt, Wettbewerb zu unterdrücken oder zu manipulieren, Steuern zu vermeiden, den Datenschutz zu unterlaufen und die Privatsphäre nicht zu respektieren. Kritiker gehen soweit, ihnen eine Unterwanderung der Demokratie zu unterstellen. Hierbei ist nicht nur die Größe und das Wachstum der digitalen Quasi-Monopole beängstigend, sondern das unvergleichliche Tempo und die Geschwindigkeit, mit der diese Unternehmen Daten sammeln und diese in Vorhersage-Algorithmen umwandeln. Durch ihre Marktdominanz und allwissende, undurchsichtige Vernetzung in alle Bereiche der Gesellschaft kontrollieren, manipulieren und diktieren die Big Five einen Großteil der Aufmerksamkeit und Kommunikation, Medien sowie Werbung und beeinflussen Verhaltensweisen von Milliarden von Menschen. Die Dominanz der Tech Five ist erdrückend. Sie beherrschen die wichtigsten Zukunftsmärkte mit Marktanteilen von teils mehr als 90 Prozent. Amazon kontrolliert zwei Drittel des Online-Buchhandels, Google 90 Prozent des Suchmaschinenmarktes und Facebook 75 Prozent der mobilen Kommunikation. Und die Kartellbehörden kommen längst nicht mehr hinterher, alle Verstöße zu ahnden und konzentrieren sich nur noch auf die Beschwerden, die politischen Druck auslösen. Apple ist als erstes amerikanisches Unternehmen an der Börse mehr als eine Billion Dollar wert. Das ist eine Zahl mit zwölf Nullen und deutlich mehr, als die zehn größten deutschen Dax-Unternehmen zusammen wert sind. Allein Apple verfügt über 260 Milliarden Dollar. Es gibt kein (!) Unternehmen auf der Welt, das Apple sich nicht einverleiben könnte. Der iPhone-Hersteller führt damit eine Handvoll Technologie-Firmen an, deren Produkte aus dem täglichen Leben nicht mehr wegzudenken sind. Der Beliebtheit der Big Five schadet dies nicht.
BIM (Building Information Modelling)
B wie BIM (Building Information Modelling)
BIM ist die Abkürzung für Building Information Modelling und beschreibt eine ganzheitliche digitale Methode zur Planung und Realisierung von Bauvorhaben. Im Gegensatz zur Vergangenheit und in den meisten Fällen auch noch in der Gegenwart, in der sämtliche Planungsunterlagen wie Produktdokumentationen, Kalkulationen und Berechnungen, Zeichnungen und Ausschreibungen usw. manuell, separat und individuell erstellt und analog archiviert werden, wird im Kontext von „BIM“ durch alle an einem Bauvorhaben Beteiligten ein 3D Model genutzt und darin die Prozesse digital abgebildet. Durch Cloudlösungen können alle Beteiligten jederzeit und von überall auf das BIM-Model zugreifen. Dies bedeutet, dass Statiker, Architekten, Ingenieure, Handwerker usw. alle im selben Model arbeiten. Lieferanten erhalten einen begrenzten Zugang, um Produktinformationen zur Verfügung zu stellen. BIM geht weit über die reine Erstellung von Zeichnungen hinaus und umfasst heute schon die Überführung in fotorealistische 3D Modelle, ein Ressourcen- und Risikomanagement, automatisierte Berechnungen z. B. über den U-Wert und Simulationen wie z. B. über Wartungsintervalle oder Renovierungszyklen. Dadurch wird nicht nur sichergestellt, dass spezifische Leistungen und Produktinformationen der jeweiligen Gewerke immer aktuell sind, sondern auch mangelnde Abstimmung zwischen den Beteiligten und Fehlplanungen werden vermieden. Eine hohe Transparenz in der Bau- und Nutzungsphase soll Zeit und Kosten sparen und Daten für nachgelagerten Maßnahmen zugänglich machen. BIM ist eine operative Methodik und kein Werkzeug, wie es oft hingestellt wird. Es muss als Digitalisierungsprozess eines Gebäudes identifiziert werden, der ein digitales Informationsmodell verwendet und alle Informationen in Bezug auf den gesamten Lebenszyklus enthält wie z. B. Projekt, Bau, Management, Wartung, Entsorgung – und nicht nur in der Planungsphase. Für die Kommunikation zwischen diesen Daten ist das standardisierte Dateiformat „Industry Foundation Classes“ (→IFC-Format) zuständig. Es bietet einen Austausch zwischen den Fachprogrammen verschiedener Gewerke, so dass diese während der Planung, in der Bau- und bei Bedarf in der späteren Nutzungsphase Daten austauschen können.
BIM-Autoren-Software
B wie BIM-Autoren-Software
Softwareanwendungen für →BIM (Building Information Modeling) werden auch als BIM-Autoren-Software bezeichnet und nehmen im BIM-Prozess eine Schlüsselrolle ein. Mit ihnen werden digitale Bauwerksmodelle in der Regel mit parametrisierten Modellelementen in 3D konstruiert. BIM-Autoren-Software gibt es spezialisiert auf eine bestimmte oder generalisiert auf mehrere spezifische Fachplanungsdisziplinen. Folgende Funktionen sollte eine BIM-Autoren-Software beinhalten:
- Erstellung und Visualisierung von geometrisch komplexen Bauwerken, inklusive außergewöhnlicher Entwurfsvarianten und Designs
- Verwaltung von alphanumerischen Informationen in Verbindung mit geometrischen Modellelementen inklusive der Möglichkeit, projekt- oder bürospezifische Parameter und Kennziffer definieren zu können
- Erzeugung von Bauteillisten und -mengen sowie -massen
- Zugriff durch mehrere Nutzer und/oder von verschiedenen Arbeitsplätzen inklusive der Einrichtung von Arbeitsbereichen und einem Berechtigungskonzept für definierte Model Element Autoren
- →IFC als Import- und/oder Exportformat mit Funktionen, die IFC-Version und für den Export verwendete Model View Definition konfigurieren zu können
- Import- und/oder Exportfunktionen für CAD-Dateien inklusive dem Referenzieren digital vorliegender Bestandspläne und/oder dem Verknüpfen von 2D-CAD-Details mit dem BIM-Modell
- Unterstützung einer modellbasierten Kommunikation
- Erzeugung und Verwaltung von Plänen mit Grundrissen, Ansichten oder Schnitten direkt aus dem 3D-Modell
- Integrierte Bibliothek und Chronologie generischer BIM-Objekte
Eine offene Schnittstelle, um die Software nach eigenen Bedürfnissen anpassen zu können oder um Anpassungen von anderen Entwicklern nutzen zu können, wäre hilfreich.
BIM-Modell
B wie BIM-Modell
Während →BIM (Building Information Modeling) die Methode beschreibt, ist das BIM-Modell das zugrundeliegende Datenmodell, mit dem die digitale Gebäudemodellierung strukturiert wird. Dieses umfasst neben geometrischen auch alphanumerische Daten und soll das spätere Gebäude als „digitalen Zwilling“ abbilden. Hierfür werden spezialisierte Softwaresysteme benötigt, die weit über den bisherigen Funktionsumfang herkömmlicher CAD-Systeme hinausgehen. Diese Software wird auch als BIM Autoren Software bezeichnet, die mit ihnen arbeitenden Architekten, Fachplaner, technische Zeichner usw. als BIM Software Autoren. Diese besitzen die Berechtigung zum Erstellen, Ändern und Löschen von Modellelementen, weshalb jedes Element eines BIM-Modells mit dem zuständigen Autor (im englischen auch als Model Element Author bezeichnet) gekennzeichnet werden sollte. In der Regel weist ein BIM-Projekt mehrere BIM-Modelle auf, die je nach Fachmodelle, Gebäudeteile, Geschosse oder Bauabschnitte aufgeteilt werden. Alle BIM-Modelle eines Projekts werden in einem Koordinationsmodell zusammengeführt. Damit zwischen diesen Teil- bzw. Fachmodellen ein gemeinsamer Bezug hergestellt werden kann, bildet das Architekturmodell das Referenzmodell, in der die BIM Autoren Software verknüpft wird.
Bionik
B wie Bionik
Der Begriff Bionik (auch Biomimetik) setzt sich zusammen aus Biologie und Technik und beschreibt das kreative Umsetzen von Anregungen bzw. Übertragen von Phänomenen aus der Biologie auf die Technik. Bioniker arbeiten hierbei interdisziplinär zusammen mit Biologen und Naturwissenschaftlern sowie mit Ingenieuren, Architekten, Materialforschern und Designern. Bionik als noch sehr junge Wissenschaftsdisziplin verfolgt das Ziel, durch Abstraktion, Übertragung und Anwendung von Erkenntnissen, die an biologischen Vorbildern gewonnen werden, systematisch technische Fragestellungen zu lösen. Biologische Vorbilder im Sinne dieser Definition sind biologische Prozesse, Materialien, Strukturen, Funktionen, Organismen und Erfolgsprinzipien sowie der Prozess der Evolution. Das Ziel ist ein von der Natur getrenntes technisches Ergebnis, wodurch sich die Bionik von Wissenschaften, die biologische Prozesse nutzen und erweitern, wie z. B. die Bioinformatik, Biophysik und Biochemie unterscheidet.
Bioniker greifen auf das große Reservoir an biologischen Strukturen, Prozessen und oft überraschenden funktionalen Lösungen zurück, die in Millionen von Jahren evolutionärer Entwicklung und Biodiversität erprobt und durch die Natur selbst optimiert wurden. Sie liefern Ideen für nachhaltige und vor allem oft unerwartete innovative Anwendungen, die Sprunginnovationen möglich machen. In der Bionik wird hierbei unterschieden zwischen einer reinen Kopie natürlicher Vorbilder oder ein durch die Natur angeregtes „Neuerfinden“.
Die Natur ist der erfolgreichste Innovator aller Zeiten und die Bionik überzeugt mittlerweile als etablierte Innovationsmethode. Dies belegen Produktinnovationen auch in der Baubranche wie z. B. superhydrophobe Oberflächen für Unbenetzbarkeit und Selbstreinigung (Lotus-Effekt) bei Fassadenbeschichtungen oder Dachziegel, Nanostrukturen für klebstofffreies Haften (Gecko) bei Klebefolien oder auch Strukturoptimierung von Bauteilen (CAO und SKO durch Wuchsformen von Bäumen oder Knochen).
Übrigens: die Entdeckung der Schwarmintelligenz geht u. a. auf Verhaltensweisen von Insekten zurück und wird auch als Ameisenalgorithmus bezeichnet.
Bisoziation
B wie Bisoziation
Der Begriff Bisoziation wurde vom ungarisch-britischen Schriftsteller Arthur Koestler in Anlehnung an das Wort Assoziation eingeführt. Während bei der Assoziation Dinge auf einer Ebene verknüpft werden, verknüpft die Bisoziation Dinge auf zwei unterschiedlichen Ebenen. Diese Kreativitätstechnik dient dazu, geistige Routinen zu durchbrechen und dadurch kreative, ungewohnte und innovative Lösungsansätze zu finden. Die Ergebnisse dieser Methode können zu drei wesentlichen Entdeckungen führen: zu Erkenntnis und Entdeckung (überraschende und neue Einsichten), zum Verständnis (von Zusammenhängen) und in manchen Fällen auch zu Humor, denn aus dem Zusammentreffen nicht zusammen gehörender Dinge kann auch Komik entstehen. Das Besondere an der Bisoziation besteht darin, dass zwei vorher nicht verbundene Denk-Dimensionen zusammengeführt werden, um neue Ideen zu entwickeln. Deshalb wird diese Methode neben der Ideenfindung und als Kreativitätstechnik gerne auch im Rahmen von Problem- oder Konfliktlösungen eingesetzt.
Blockchain
B wie Blockchain
Eine Blockchain (englisch für Blockkette) ist eine kontinuierlich erweiterbare Liste von Datensätzen in einzelnen Blöcken. Neue Blöcke werden nach einem Konsensverfahren erstellt und mittels kryptographischer Verfahren an eine bestehende Kette angehängt. Jeder Block enthält dabei typischerweise einen kryptographisch sicheren Hash (Streuwert) des vorhergehenden Blocks, einen Zeitstempel und Transaktionsdaten. Die Blockchain-Technologie eignet sich ideal, um Informationen in der Wirtschaft auszutauschen. Sie liefert sofortige, gemeinsam genutzte und vollständig transparente Informationen, die in einem nicht veränderbaren Ledger gespeichert sind, auf das nur berechtigte Netzwerkmitglieder zugreifen können. Ein Blockchain-Netzwerk kann Aufträge, Zahlungen, Konten, Produktion und vieles mehr verfolgen. Da alle Nutzer eine einheitliche und transparente Sicht auf die Informationen haben, sind sämtliche Details einer Transaktion von Anfang bis Ende einsehbar. Entscheidend ist, dass spätere Transaktionen auf früheren Transaktionen aufbauen und diese als richtig bestätigen, indem sie die Kenntnis der früheren Transaktionen bestätigen. Infolgedessen ist es unmöglich, Existenz oder Inhalte der früheren Transaktionen nachträglich zu manipulieren oder zu tilgen, ohne gleichzeitig alle späteren Transaktionen ebenfalls zu ändern. Andere Teilnehmer der Transaktionen erkennen eine Manipulation der Blockchain an der Inkonsistenz der Blöcke. Dies schafft nicht nur Transparenz, sondern auch eine vertrauenswürdige Zusammenarbeit zwischen verschiedenen Organisationen und erhöht die Effizienz deutlich. Denn bisher war für bestimmte Transaktionen immer die Einbindung einer zentralen Instanz notwendig, z. B. eines PKI-Systems, Notars usw. Alternativ müsste dies ein Treuhänder übernehmen, der die Zusammenarbeit und Eigentumsübertragung zwischen den verschiedenen Organisationen verwaltet und verifiziert. Dies verursacht Kosten und verlangsamt die Prozesse. Da die Blockchain-Technologie dies automatisiert übernimmt, werden die Prozesse deutlich schneller und effektiver. Doppelte Aufzeichnungen und Validierungen durch Dritte entfallen. Außerdem sind die herkömmlichen Systeme anfällig für Betrug und Cyberattacken. Die Blockchain-Technologie hat den Vorteil, dass die Daten als Transaktionen in den einzelnen Blöcken manipulationssicher gespeichert werden können. Dies bedeutet, dass die Teilnehmer der Blockchain in der Lage sind, die Echtheit, den Ursprung und die Unversehrtheit der gespeicherten Daten (Transaktionen) zu überprüfen. Deshalb wird die Blockchain auch als „Internet der Werte“ (Internet of values) bezeichnet und legt die technische Basis für Kryptowährungen wie z. B. Bitcoin.
Man kann die Eigenschaften einer Blockchain wie folgt zusammenfassen:
- Verkettungsprinzip: Eine Blockchain ist eine Verkettung von Datenblöcken, die über die Zeit weiter fortgeschrieben wird
- Dezentrale Speicherung: Eine Blockchain wird nicht zentral gespeichert, sondern als verteiltes Register geführt
- Konsensmechanismus: Es wird sichergestellt, dass bei allen Beteiligten eine identische Kette entsteht. Neue Blöcke müssen vorher miteinander abgestimmt werden (durch Validatoren, die bei Bitcoin „Miner“ genannt werden). Das Einfügen eines vorgeschlagenen Blocks in die Kette erfolgt durch ein Konsensprotokoll (algorithmisches Verfahren zur Abstimmung)
- Manipulationssicherheit: Durch kryptographische Verfahren wird sichergestellt, dass die Blockchain nicht nachträglich verändert werden kann. Die Verkettung der Blöcke ist unveränderbar, fälschungs- und manipulationssicher
- Transparenz und Vertraulichkeit: Die auf der Blockchain gespeicherten Daten sind von allen Beteiligten einsehbar und können nach Bedarf individuell verschlüsselt werden, so dass Blockchains das Berechtigungskonzept je nach Vertraulichkeitsgrad flexible anpassen kann
- Eineindeutigkeit: Durch die Nutzung digitaler Signaturen sind Informationen in der Blockchain speicherbar, die fälschungssicher nachweisen, dass Teilnehmer bestimmte Daten eineindeutig hinterlegt haben
- Distributed-Ledger-Technologie: Alle Beteiligten haben Zugriff auf das verteilte Register und seine unveränderlichen Transaktionsaufzeichnungen. Diese werden nur einmal aufgezeichnet, wodurch der für herkömmliche Geschäftsnetzwerke typische Mehrfachaufwand entfällt
- Intelligente Verträge: Um Transaktionen zu beschleunigen, wird ein Satz von Regeln – ein „Smart Contracts“ – auf der Blockchain gespeichert und automatisch ausgeführt. Intelligente Verträge können Bedingungen z. B. für die Übertragung von Unternehmensanleihen festlegen oder für die Zahlung von Reiseversicherungen und vieles mehr.
Blue-Ocean-Methodik
B wie Blue-Ocean-Methodik
Die Blue-Ocean-Methodik basiert auf der Implementierung der Value Innovation. Zentrales Instrument hierbei ist die Wertkurve, mit der sich das relative Leistungsprofil eines Unternehmens innerhalb einer Branche darstellen und analysieren lässt. Die horizontale Achse wird über die kritischen Erfolgsfaktoren bestimmt, die in der Regel der Marktforschung oder Unternehmensstrategie entnommen wird. Die vertikale Achse beschreibt das Leistungsniveau innerhalb einer Branche (Skala von niedrig bis hoch). Die zu untersuchende Einheit wird auf der Wertkurve eingeordnet. Erhält diese Einheit einen hohen Wert für einen Faktor bedeutet dies eine bessere Leistung im Vergleich zu Wettbewerbern (und umgekehrt). Zusätzlich werden die Wertkurven wichtiger Wettbewerber oder relevanter strategischer Gruppen nach dem gleichen Schema ermittelt. Werden mehrere Wertkurven für unterschiedliche Unternehmen in einem Chart abgebildet, spricht man auch vom so genannten Strategy Canvas.
Anschließend wird ein andersartiges Leistungsangebot konstruiert eine neue Wertkurve entwickelt, mit dem ein echter Kundennutzen und Mehrwert geboten wird. In der →Blue-Ocean-Strategie werden hierfür vier Maßnahmen („Four Actions Framework“) definiert, um Kernelemente zu verändern bzw. neu zu definieren und somit Wertkurven nachhaltig zu verändern:
- Eliminierung: Welche Faktoren können weggelassen werden?
- Reduzierung: Was kann radikal gekürzt werden?
- Steigerung: Welche Elemente des Produkts müssen über den Branchenstandard gehoben werden?
- Kreierung: Welche Komponenten eines Produkts müssen neu erfunden werden?
Durch die Veränderung und neue Definition der Kernelemente einer Wertekurve sollen neue Geschäftsmodelle entwickelt werden. In der Blue-Ocean-Strategie werden hierfür sechs Lösungen („Six Paths Framework“) empfohlen:
- Die Perspektive systematisch auf weitere Branchen richten.
- Übergreifende Angebote in einer Branche definieren.
- Neue Zielgruppen in der Käuferkette finden.
- Komplementäre Produkte und Dienstleistungen zu einer Gesamtlösung zusammenfassen.
- Funktionale oder emotionale Ausrichtung der Branche überprüfen.
- Veränderungen im Zeitablauf erkennen.
Für eine erfolgreiche Umsetzung dürfen zwei Aspekte nicht vernachlässigt werden. Zum einen müssen organisatorische Hürden überwunden (Tipping-Point-Management) und zum anderen muss die Umsetzung in die Strategie eingebunden werden.
Blue-Ocean-Strategie
B wie Blue-Ocean-Strategie
Die Blue-Ocean-Strategie stellt eine Methode im strategischen Management dar. Im Kern geht es darum, neue und innovative Märkte zu erkennen oder zu entwickeln, in denen es (noch) keinen Wettbewerb gibt, um diese mit innovativen Ideen und rentablen Geschäftsmodellen zu besetzen. Die von den Professoren W. Chan Kim und Renée Mauborgne entwickelte Strategie wurde 2004 vorgestellt und zunächst als Value Innovation bezeichnet. Der Grundgedanke der Blue-Ocean-Strategie besteht in der Nutzen- und Mehrwertbasierten Innovation in einem neuen Marktsegment, in dem der bisherige Wettbewerb irrelevant und Kunden ein unvergleichbares Angebot unterbreitet wird. Die Blue-Ocean-Strategie zielt deshalb nicht darauf ab, sich vom Wettbewerb zu differenzieren wie dies z. B. in den herkömmlichen Wettbewerbsstrategien z. B. nach Michael Porter der Fall ist, sondern Nachfrage zu generieren und/oder Bedürfnisse zu schaffen, die es so bisher nicht gegeben hat. In diesen neuen Märkten ohne etablierten Wettbewerb werden neben der Erzielung einer deutlich höheren Umsatzrentabilität in der Regel auch neue Marktmechanismen und Wettbewerbsregeln etabliert. Erfolgreiche Unternehmen investieren ca. 15% ihrer Ressourcen in inkrementelle bis disruptive Innovationen in neue Märkte. Im Vergleich dazu wenden weniger erfolgreiche Unternehmen über 80% ihrer F&E-Ressourcen auf, um bestehende Angebote und Märkte zu bedienen und zu optimieren sowie auf Aktionen des Wettbewerbs zu reagieren (Quelle: Harvard Business Manager, Heft 3/2019).
„Blue Oceans“ stehen in dem Zusammenhang für „sauber“, „unberührt“ und „friedlich“ und sollen ein Marktumfeld mit keinem (oder sehr wenig) Wettbewerb beschreiben. „Red Oceans“ dagegen stehen symbolisch für blutige Kämpfe unter Raubfischen und beschreiben Auseinandersetzungen in gesättigten Märkten durch bestehende Wettbewerber, in denen harte Preiskämpfe geführt werden, um das eigene Überleben zu sichern. Infolgedessen geht es bei der Blue-Ocean-Strategie darum, sich nicht am Wettbewerb orientieren, sondern eigene innovative Wege zu suchen, zu finden und zu entwickeln, um einen Blauen Ozean selbst zu kreieren. Erfolgreiche Innovationen können dabei auf technologische Neuentwicklungen basieren, in der Regel handelt es sich aber um eine Neugestaltung bestehender Angebote in einem neuen Umfeld.
Boston-Modell
B wie Boston-Modell
Der Begriff „Boston-Modell“ (auch BCG-Modell) beschreibt die visuelle Darstellung des Portfolio (Produkte und Dienstleistungen) im Zusammenhang mit dem Produkt-Lebenszyklus. Die Darstellung erfolgt als Matrix, in der die y-Achse das Marktwachstum und die x-Achse den relativen Marktanteil (Verhältnis des eigenen Marktanteils zu dem des marktführenden Wettbewerbers) abbildet. Daher ist auch der Begriff der BCG-Matrix geläufig. Diese wird häufig als Streu- oder Blasendiagramm visualisiert, in der die Fläche eines Kreises je nach Dimensionierung den Umsatz des jeweiligen Produkts, Sortiments oder Geschäftseinheiten darstellt. Das Produkt- oder Sortimentsportfolio oder die Geschäftseinheiten werden anhand ihrer Werte einem der vier Quadranten zugeordnet, woraus sich die jeweilige Strategie ergibt. Der typische Produktlebenszyklus verläuft vom Question Mark über Star und Cashcow zum Poor Dog.
- Question Marks sind die Neuprodukte mit einem hohen Wachstumspotenzial und geringen relativen Marktanteilen. In dieser Phase steht das Management vor der Entscheidung, in das Produkt zu investieren oder das Produkt aufzugeben. Schließlich benötigt das Produkt liquide Mittel, die es bisher nicht selbst erwirtschaften konnte. Typische Empfehlungen in dieser Phase lauten: Selektion und evtl. eine offensive Penetrationsstrategie, um über Wachstum Marktanteile zu erhöhen und Skaleneffekte zu erzielen.
- Stars sind wie der Name verrät die Top-Produkte eines Unternehmens, Umsatzträger mit hoher Marge und imagebildend. Sie haben in der Regel einen hohen relativen Marktanteil und befindet sich in einem Wachstumsmarkt. Den Investitionsbedarf für das weitere Wachstum decken diese Produkte über ihren eigenen Cash-Flow ab. Die strategische Empfehlung in dieser Phase lautet: Investition sowie eine Abschöpfungsstrategie, um Deckungsbeiträge zu erhöhen, ohne hierbei Marktanteile zu verlieren.
- Cashcows haben einen hohen relativen Marktanteil in einem statischen Markt, der nur noch geringfügig wächst. Diese Produkte generieren stabile, hohe Cash-Flows und können ohne weitere Investitionen „gemolken“ werden. Die strategische Empfehlung in dieser Phase ist eine Festpreisstrategie oder Preiswettbewerbsstrategie.
- Poor Dogs haben ihren Zenit überschritten und gelten als Auslaufprodukte im Unternehmen. Diese Produkte haben kein oder nur noch ein sehr geringes Wachstum und in der Regel einen geringen relativen Marktanteil. Meistens werden die Produkte noch „mitgeschleppt“, da für langjährige Kundenbeziehungen verantwortlich sind. Spätestens wenn der Deckungsbeitrag für diese Produkte negativ ist, muss das Portfolio um diese Produkte bereinigt werden. Die strategische Empfehlung lautet dann eine Exit- oder Desinvestitionsstrategie einzuleiten.
Häufig wird das Boston-Modell eingesetzt, um Produkte „gegeneinander“ zu positionieren. Dabei dient die Matrix auch dazu, das gesamte Portfolio im Sinne eines Finanzausgleiches zu betrachten. Produkte im Portfolio sollen sich gegenseitig unterstützen und finanzieren. Question Marks können z. B. nur expandieren, wenn z. B. Cashcows dieses Wachstum finanzieren. Hierbei ist wichtig, dass die Matrix nur eine Momentaufnahme liefert und keine Prognose.
Das Boston-Modell ist ein Werkzeug zur Strategieentwicklung. Benannt wurde das Modell bzw. die Matrix nach der Boston Consulting Group (BCG), deren Gründer Bruce Henderson diese im Jahre 1970 entwickelte. In den letzten 50 Jahren haben sich Märkte weiter entwickelt und neue Herausforderungen ergeben. Infolgedessen bleiben kritische Anmerkungen auch am etablierten BCG-Modell nicht aus. Heute wird die Relation zwischen Marktanteil und Rentabilität in Frage gestellt, da die Entwicklung eines hohen Marktanteils in der Regel auch hohe Investitionen erfordern. Darüber hinaus ignoriert der Ansatz die Positionierung in rückläufigen Märkten wie z. B. Loser, die für ein sinkendes Wachstum bei hohem Marktanteil stehen, also gegen den Markt verlieren. Des Weiteren sieht das Boston-Modell ein Marktwachstum als gegeben an und vernachlässigt, dass Unternehmen durch geeignete Maßnahmen dieses positiv beeinflussen können.
Brain-Machine-Interface (BMI)
B wie Brain-Machine-Interface (BMI)
Digitale Sprachassistenten wie z. B. Siri oder Alexa haben den Alltag stark vereinfacht. Dennoch weisen diese sprachgesteuerten Assistenzsysteme noch Schwächen auf wie z. B. in der umgangssprachlichen Eingabe, der Verständlichkeit bei Doppeldeutigkeit oder auch Dialekt und Mundart u. a. Brain-Machine-Interface (oder synonym Brain-Computer-Interfaces) sind die konsequente Weiterentwicklung der digitalen Sprachassistenten und ermöglichen eine direkte Informationsübertragung zwischen einem organischen Schaltkreis (Gehirn) und einem technischen Schaltkreis (Computer). Durch das Auslesen von Gedanken bzw. mentalen Befehlen können sie als neurotechnologische Eingabesysteme eine sprach- und bewegungsunabhängige Maschinensteuerung vermitteln. Das Besondere daran ist, dass diese Systeme ohne die Betätigung irgendeines Muskels auskommen. Dies eröffnet ganz neue und revolutionäre Anwendungsmöglichkeiten, nicht nur für körperlich behinderte Menschen. Erste prototypische Systeme findet man z. B. für die Steuerung eines Cursors, in der Bedienung eines virtuellen Buchstabierprogramms oder auch der Steuerung von Prothesen oder der Kontrolle in der Robotik. Weitere Anwendungen fokussieren sich auf die Überwachung von Bewusstseins- und Gefühlszuständen oder die Interaktion mit virtuellen Umgebungen wie z. B. im Bereich Gaming.
Die Informationsübertragung zwischen einem Gehirn und einem Computer beruht grundsätzlich immer auf der Erfassung und Verarbeitung von spezifischen physiologischen Signalen wie z. B. elektrischen Potentialschwankungen oder Fluktuationen im Sauerstoffgehalt des Blutes, die Aufschluss über die neuronale Aktivität geben. Die räumliche und zeitliche Dynamik dieser Signale kann über nicht-invasive Ableitverfahren wie die Elektroenzephalographie (EEG) oder die funktionelle Nahinfrarotspektroskopie gemessen werden. Die Aktivitäten werden vom Brain-Machine-Interface erfasst, in Muster überführt und mit vorgegebenen und/oder erlernten Referenzmustern verglichen. Auf diese Weise identifiziert das System charakteristische neuronale Signaturen, die als Kontrollsignale dienen. Durch die Identifikation und Klassifikation dieser Kontrollsignale entschlüsselt das Brain-Machine-Interface die Intentionen des Nutzers und generiert daraufhin maschinelle Steuerbefehle.
Während sich Brain-Machine-Interfaces in der Medizintechnik weitestgehend noch in der Entwicklungsphase befinden und erst sehr wenige Anwendungen an der Schwelle zur Marktreife stehen, gibt es bereits vergleichsweise einfache BMI in den Bereichen Entertainment, Fitness und Wellness. Headsets mit BMI-Technologie geben z. B. ein Biofeedback und können somit die Stimmung und Gemütslage bewusst beeinflussen, Stress abbauen oder die Konzentrationsfähigkeit erhöhen. Bei diesen Anwendungen geht es also noch nicht um die Steuerung eines maschinellen Systems.
Gegenwärtig besteht das größte Problem bei Brain-Machine-Interfaces in der niedrigen Informationsübertragungsrate zwischen Gehirn und Computer. Außerdem werden die mentalen Signale von den BMI-Systemen zum Teil nicht verstanden oder falsch interpretiert. Hinzu kommt, dass sämtliche Entwicklungen aktuell noch in einer kontrollierten Laborumgebung stattfinden und den Schritt in die alltägliche Anwendung noch nicht überwunden haben. Ein hohes Hintergrundrauschen, elektromagnetische Fremdsignale oder auch die Ablenkung des Nutzers durch eine Vielzahl unterschiedlicher Sinnesreize sind nur einige Aspekte, die sich auf die Funktion der BMI-Systeme negativ auswirken.
Aktuell stellt die Vision einer schnellen, intuitiven und präzisen Gedankenkontrolle und -steuerung von Computern und Maschinen noch Zukunftsmusik dar. Aufgrund der aktuellen Entwicklungen in der neurowissenschaftlichen Grundlagenforschung (Human Brain Project in Europa und BRAIN Initiative in den USA) wird es in den nächsten Jahren in der BMI-Technologie signifikante Fortschritte geben. Einen ersten Durchbruch hat jetzt die Universität von Kalifornien verkündet. Das Team von Joseph Makin hat eine Möglichkeit gefunden, die menschlichen Gehirnaktivitäten in Text zu übersetzen. Der von ihm entwickelte Algorithmus ist in der Lage, einen ganzen Satz über die Hirnaktivitäten der Testperson in einen geschriebenen Satz zu übersetzen. Der auf künstliche Intelligenz basierende Algorithmus nutzte die Hirnimplantate von Testpersonen und konnte die Hirnaktivitäten auslesen und diese interpretieren. Infolgedessen konnte die künstliche Intelligenz lernen, welche Hirnregion in welcher Reihenfolge und mit welcher Intensität aktiviert wurde, um einen vollständigen Satz zu erstellen. Anschließend war das Brain-Machine-Interface in der Lage, selbst Vokale und Konsonanten zu unterscheiden und mehrere Sätze zu bilden. Die Fehlerquote soll lt. Studie dem einer professionellen Sprachtranskription entsprechen.
Ein besseres Verständnis darüber, wie neuronale Signale erfasst, interpretiert und sogar beeinflusst werden können, wird disruptive Entwicklungen in der BMI-Technologie ermöglichen. Bidirektionale BMI-Systeme, die sowohl Informationen auslesen als auch Signale ins Gehirn einspeisen können, werden in Zukunft eine maschinenvermittelte Hirn-zu-Hirn-Kommunikation ermöglichen und einen Grad organisch-technischer Interaktion erschließen, der die Grenzen zwischen Mensch und Maschine verschwimmen lässt. Ob und in welchem Umfang dies tatsächlich Realität wird, ist nicht nur von der technologischen Entwicklung abhängig, sondern auch von der gesellschaftlichen Akzeptanz.
Brainfloating
B wie Brainfloating
Brainfloating ist der Oberbegriff für verschiedene Kreativitätstechniken, die Ende der 1980-er Jahre entwickelt wurden. Hierbei soll durch multisensorische Elemente das komplette Gehirn im kreativen Prozess angesprochen werden. Ausgangspunkt für die Entwicklung des Brainfloating-Prinzips war die ursprüngliche Annahme in der Hirnforschung, dass den einzelnen Gehirnhälften bestimmte Funktionen zugeordnet wurden wie z. B., dass die rechte Hirnhälfte für Kreativität und Intuition zuständig wäre und die linke für analytisches Denken und Sprache. Heute besteht in der Hirnforschung soweit Konsens, dass derartige ausschließlichen aufgabenspezifischen Zuweisungen nicht zutreffen. Auch wenn einzelne Aufgaben von der einen Hirnhälfte stärker repräsentiert wird als von der anderen, gibt es dennoch auch Bereiche, die beide Hemisphären gleichermaßen stark beanspruchen. Weiter besteht Konsens darüber, dass es Asymmetrien in der Aufgabenverteilung gibt. Somit sind die Hirnhälften je nach Funktion und Aufgabe unterschiedlich stark involviert. Dieses nutzt man in der Brainfloating-Technik, um das Gehirn zu aktivieren, damit klassische Denkmuster durchbrochen und neue Ideen entwickelt werden können. Elemente dieser Kreativitätstechnik können z. B. Bild-Text-Potenzierung, Creative Casting, Doppelkopf, Dreiklang, Formbildung, Lautmalerei, Simultanaktion oder Umpolung u. a. sein.
Business-Elf
B wie Business-Elf
Um das Zusammenspiel unterschiedlicher Fachbereiche und/oder Interessen innerhalb einer Organisation zu symbolisieren, wird gerne der Vergleich zu einem Orchester gezogen. Nur wenn die unterschiedlichen Musikinstrumente in Einklang gebracht werden, ergibt sich ein harmonisches Musikstück. Um das Zusammenspiel möglicher Gegensätze und Konsequenzen für Organisationen aufzuzeigen, hat sich das Modell der so genannten Business-Elf bewährt. Es hilft, den Perspektivwechsel vorzunehmen und sich in den Standpunkt eines Andersdenkenden hinein zu versetzen.
Die Business-Elf bedient gleich mehrere Aspekte. Zum einen symbolisiert sie, dass man als Unternehmen wie auch im Spitzensport nur gemeinsam erfolgreich sein kann oder der Misserfolg immer mehr als einen Verursacher hat. Zum anderen werden Unternehmen erfolgreich sein, wenn sich jeder einzelne Mitarbeiter mit seinem Unternehmen identifiziert, sich als Teamspieler versteht und dennoch genug Ehrgeiz hat, sein Team zu Höchstleistungen zu pushen und eigene Interessen hinten an zu stellen. Dies erfordert Managementkompetenzen und Führungsqualitäten.
Außerdem eignet sich die Business-Elf, um die unterschiedlichen Rollen und Kompetenzen der Fachbereiche eines Unternehmens zu vergleichen. Der Vertrieb z. B. in seinen unterschiedlichen Ausprägungen kann als Sperrspitze eines Unternehmens mit dem Stürmer einer Fußballmannschaft verglichen werden. Er ist für das Versenken der Bälle im gegnerischen Tor verantwortlich. Dafür braucht er Zuarbeit z. B. durch Marketing, Produktmanagement, Technischen Support, Forschung & Entwicklung, Innovationsmanagement oder Logistik. Das Marketing als Dreh- und Angelpunkt im Spielaufbau setzt aber nicht nur kreative Ansätze und Impulse für den Vorverkauf, sondern organisiert auch die „Abwehr“. Im übertragenen Sinne sind hiermit die Fachabteilungen im Backup gemeint (z. B. Produktion, Einkauf, Buchhaltung, Controlling, Recht und Compliance, IT und Datenmanagement usw.). Denn zu häufig wird noch unterschätzt, dass die beste Performance beim Kunden durch den Kollegen im Vertrieb wirkungslos bleibt, wenn nachgelagerte Abteilungen die Erwartungen des Kunden nicht erfüllen oder nicht in der Qualität, die der Vertrieb zugesagt hat. Aufgrund einer Vielzahl an Touchpoints muss die Customer Centricity über alle Unternehmensbereiche verinnerlicht und gelebt werden. Hier zählen auch die vermeintlich „kleinen“ oder „unwichtigen“ Dinge wie der Erstkontakt mit der Telefonzentrale oder die richtig ausgestellte Rechnung genauso wie die „unbequemen“ Dinge wie eine schnelle und unbürokratische Abwicklung einer Reklamation oder Beschwerde, die beim Kunden nachhaltig das Markenbild prägen – positiv wie negativ. In einer gut funktionierenden Organisation kennt jeder Fachbereich seine Rolle und Kompetenzen und konzentriert sich darauf, Höchstleistungen im Sinne der Unternehmensstrategie zu bringen. Ein permanentes Einmischen in andere Bereiche und/oder das Absprechen von Kompetenzen sind deutliche Hinweise auf eine schlechte Unternehmenskultur.
Erfolgreiche Fußballmannschaften sind auf allen Positionen sehr gut und doppelt besetzt. Auch in diesem Punkt kann sich die Wirtschaft viel aus dem Spitzensport abschauen. Und letztendlich kann mit dem Modell der Business-Elf der Unterschied zwischen Vision, Strategie und Taktik erklärt werden. Ein Beispiel: eine Mannschaft spielt in der zweiten Liga im oberen Tabellenbereich und nimmt sich vor, in den nächsten 10 Jahren Deutscher Meister zu werden – dies wäre die Vision. Die Vision ist das übergeordnete und unverrückbare Ziel, das in den nächsten 10 Jahren angestrebt wird. Die Strategie beinhaltet grundlegende Entscheidungen, wie diese Vision erreicht werden soll. Denn neben einer intensiven Nachwuchsarbeit, die eher längerfristig ausgelegt ist, wäre die Alternative, Top-Spieler aus anderen Vereinen zu engagieren. Dieser Weg ist meist kurzfristig möglich, schwächt andere Teams (Wettbewerber) und ist allerdings mit hohen Kosten verbunden. Die Strategie beinhaltet auch das Spielsystem, mit dem eine Mannschaft agieren möchte. Hierfür müssen Spielphilosophie des Trainers und die vorhandenen Spielerqualitäten zusammenpassen, anderenfalls die geeigneten Spieler eingekauft und der richtige Trainer engagiert werden, damit im Training das Spielsystem allen Mannschaftsteilen vermittelt wird. Die individuelle Mannschaftsaufstellung ist geprägt von der Stärke des Gegners sowie ggf. verletzungsbedingten Ausfällen in der eigenen Mannschaft. Dies wiederum ist die Taktik, die sich von Spieltag zu Spieltag ändern kann. Mit taktischen Maßnahmen können im Einzelfall auch mal Defizite in der Strategie kompensiert werden, dauerhaft allerdings nicht. In dem Fall müsste die Strategie angepasst werden. Und wie im Fußball wird der Grundstein für den Erfolg im permanenten Training gelegt. Erfolgreiche Mannschaften trainieren Spielzüge, Freistoßvarianten, Positionswechsel und entwickeln somit eine Routine zwischen den Spielern. Spitzenteams zeichnet darüber hinaus aus, dass sie blitzschnell auf Veränderungen im Spiel reagieren können. Sei es durch einen verletzungsbedingten Ausfall oder die Sperre eines eigenen Spielers oder die geänderte Spielweise durch Einwechslung eines gegnerischen Spielers.
Alle diese Erfahrungen aus dem Spitzensport lassen sich auf Unternehmen übertragen. Erfolgreiche Unternehmen trainieren keine Spielzüge, haben aber funktionierende Prozesse. Sie üben auch keine Freistoßvarianten, führen aber Produkte ein, Verkaufsaktionen durch oder bieten Services und Dienstleistungen mit Mehrwert an. Den Positionswechsel im Sport kann man in der Wirtschaft mit Marktveränderungen gleichsetzen, ob nun durch das veränderte Verhalten des Wettbewerbs, der Bedarfs- und Zielgruppen oder durch Einflüsse aus Politik, Gesetzgebung oder normativen Vorgeben etc. Auch für die egoistischen Spieler im Sport gibt es in Unternehmen Vergleiche in Form von Einzelkämpfern. Diese können Leistungsträger sein und ein Team pushen oder auch Egoisten, die sich nicht an Prozessen beteiligen. Hier haben Führungskräfte die gleiche Aufgabe wie Trainer im Fußball: dies zu erkennen und durch Training im Team, Mannschaftsbesprechungen z. B. über die Taktik oder Einzelgespräche mit betroffenen Spielern (Mitarbeitern) abzustellen. Ansonsten agieren Unternehmen hektisch, improvisieren den Geschäftsalltag und sind unstrukturiert. Die Arbeitsweise ähnelt in dem Fall eher der Hektik und dem Prinzip Zufall, wie man es vom Tischfußball kennt.
Business Model Innovation
B wie Business Model Innovation
Innovationen werden in vielen Unternehmen noch mit der technischen Entwicklung von Produkten gleichgesetzt oder auf diese reduziert, obwohl Prozessinnovationen, Verfahrensinnovationen, Serviceinnovationen, Vertriebsinnovationen und/oder Geschäftsmodellinnovationen den Innovationsbegriff in den letzten Jahren deutlich erweitert haben. Der Begriff Business Model Innovation dagegen bezeichnet erfolgreich umgesetzte Innovationen im Geschäftsmodell von Unternehmen. Im Gegensatz zur Entwicklung der o. g. unterschiedlichen Innovationsarten geht es bei Business Model Innovation vor allem um die Monetarisierung von Produkt-, Service- oder Geschäftsmodellinnovationen. Zentrale Aufgabe besteht darin, wie Nutzen und Mehrwert aus Kundensicht generiert werden, innovative Vertriebswege umgesetzt und neue Modelle zur Monetarisierung eingeführt werden. Dem entsprechend umfasst Business Model Innovation auch Marketing (Formulierung einer innovativen Value Proposition), Vertrieb und Vertriebsmodell sowie die Monetarisierung. Auch die Veränderung einer Monetarisierung wie z. B. ein Miet- oder Leasingmodell anstatt wie bisher der Kauf eines Produktes oder einer Dienstleistung kann in bestimmten Märkten oder Segmenten eine Business Model Innovation darstellen.
Business Transformation
B wie Business Transformation
Unter dem Begriff Business Transformation versteht man eine fundamentale Neuausrichtung des eigenen Geschäftsmodells und somit die Veränderung im wirtschaftlichen und gesellschaftlichen Umfeld eines Unternehmens. Infolgedessen werden mehr oder weniger alle Beziehungen eines Unternehmens neu definiert. Hierbei unterscheidet man vier Varianten:
- Reframing: beschreibt die strategische Neuausrichtung der Positionierung von Unternehmen. Purpose und Markenkern werden verändert
- Restructuring: beschreibt die Restrukturierungsmaßnahmen im Unternehmen zur Verbesserung der Wettbewerbsposition
- Revitalizing: beschreibt den Prozess des Wachstums durch Revitalisierung. Hierbei geht es um eine Rückbesinnung und Fokussierung der ursprünglichen Kernkompetenzen
- Renewing: beschreibt die Neupositionierung durch eine Erneuerung, in dem die Organisation zu neuen Kompetenzen befähigt wird.
Business Wargaming
B wie Business Wargaming
Business Wargaming ist eine dynamisch strategische Simulationsmethode, mit der externe Einflüsse wie zukünftige Marktentwicklungen oder dynamische Veränderungen im Verhalten von Kunden und Wettbewerbern veranschaulicht werden. Gerade durch die agilen und dynamischen Geschäftsmodelle im Umfeld von Startups gewinnen zukunftsgerichtete Simulationsmethoden wie Business-Wargaming an Bedeutung. Die Betrachtung von längeren Zeiträumen, wie dies gerade bei Szenario-Analysen oft gemacht wird, ist oft nicht zielführend. Kürzere Zeiträume spiegeln die Situation volatiler Märkte besser wider. Der martialische Name (im deutschen „Kriegsspiel“) hat seinen Ursprung in der Militärplanung, bei der es um die umfassende Analyse des Umfeldes und dem Durchspielen von Simulationen geht, mit denen Erkenntnisse für den Ernstfall gewonnen werden. Das älteste Wargame wurde lt. Überlieferung vor über 5.000 Jahren durch den chinesischen General und Militärphilosophen Sun Zi entwickelt. In diesem ging es darum, als Erster den Spielgegner zu umzingeln. Schon damals war es die vorherrschende Philosophie, einen militärischen Konflikt durch eine Einkesselungsstrategie erfolgreich zu lösen. Weitere Spiele, die einen Konflikt als Ausgangssituation haben, sind z. B. das japanische Go, das koreanische Baduk oder das indische Chaturanga. In Europa dürfte das ursprünglich aus Persien stammende Schach das bekannteste Spiel dieser Art sein. Militärforscher gehen davon aus, dass der Einsatz von Wargames einen nicht unerheblichen Anteil am Aufstieg Preußens zur europäischen Großmacht hatte. Denn diese Methode wurde zunächst zur Ausbildung und später zur Entwicklung von Kriegsstrategie und -taktik eingesetzt. Wargames wurden genutzt, um Reaktionen der Gegner zu antizipieren und dadurch selbst durchdachter und auf strategischer Ebene proaktiver handeln zu können. Seit Mitte des 20. Jahrhunderts wird die Wargaming-Methode auch im ökonomischen Kontext eingesetzt. So entwickelte die „American Management Association“ 1956 die „Top Management Decision Simulation“, die heute als das erste ökonomische Planspiel gilt. Zwei Jahre später entwickelte die renommierte Harvard Universität eine Wargaming-Methodik im ökonomischen Umfeld.
Aus den, mit mehreren Spielparteien simulierten, „Was-wäre-wenn“-Szenarien können Wechselwirkungen von zukünftigen Handlungen abgeschätzt werden. Das Ergebnis eines Business Wargames kann eine robustere Strategie, eine verbesserte Reaktionsfähigkeit oder ein komplett neues Geschäftsmodell sein, siehe auch →Kill the Company. Während sich klassische Planspiele in der Regel auf einer operativen Ebene bewegen, setzen sich Business Wargames mit strategischen Optionen auseinander. Typische Anwendungen sind neue Geschäftsmodelle oder der Eintritt in neue Märkte, die Positionierung von Pricing-Strategien oder die Einführung von Innovationen. Auch bei der Suche nach strategischen Allianzen im Markt sind Methoden aus dem Business-Wargaming geeignet. Sie sind das ideale Werkzeug im Risikomanagement.
Buyer Personas
B wie Buyer Personas
Um Strategien, Konzepte oder Kampagnen auf eine bestimmte Gruppe von Menschen auszurichten, wurde früher der unscharfe und dehnbare Begriff der „Zielgruppe“ verwendet. Dieser Begriff stand mal für das Gesamtpotenzial eines Marktes, dann wiederum nur für die Menge in einem Teilmarkt (Branche) oder auch für eine spezifische Gruppe aus einer Marktsegmentierung. Weiterhin wurde der Begriff unsauber verwendet in der Ansprache von Kunden oder Bedarfsgruppen oder auch potenziellen Neukunden. Ausgewählt wurden diese nach unterschiedlichen Kriterien. Dies kann nach soziodemografischen Faktoren wie z. B. Alter, Geschlecht, Generation, Bildung, Kaufkraft usw. erfolgen oder nach Handlungen wie z. B. Neukunde, wiederkehrender oder langjähriger Bestandskunde. Auch psychologische Merkmale oder die Informations- und Kommunikationskanäle können heran gezogen werden.
Nicht erst durch die viel zitierten statistischen Zwillinge Prinz Charles und Ozzy Osborne ist bekannt, dass eine Zielgruppenbeschreibung für Marketing, Vertrieb und Produktmanagement viel zu ungenau und unspezifisch ist. Infolgedessen werden heute zunehmend Buyer Personas eingesetzt, die sehr viel konkreter und spezifischer sind, als es Zielgruppen jemals sein können. Hierbei handelt es sich um eine auf empirischen Informationen, gezielter Recherche, qualifizierter Marktforschung und echten Kundenangaben und -daten erstellte reale Nutzerbeschreibung (Kunden-Avatar), die das unspezifische Bild einer Zielgruppe durch tiefgründiges Hintergrund- und Detailwissen ablöst. Durch die Anwendung von Buyer Personas ändert sich die grundsätzliche Haltung von Unternehmen in ihrer Kundenbeziehung. Man „zielt“ nicht auf seine Kunden, sondern kennt ihre Bedürfnisse, Erwartungen und Herausforderungen, um spezifische und relevante Angebote darauf abzustimmen. Kundenfokus und -zentrierung bekommt ein konkretes Gesicht zu einer echten Person und keine fiktive und abstrakte Beschreibung einer unspezifischen Gruppe. In Folge dessen sind Produkt- und Kundenkommunikation besser aufeinander abgestimmt und sind eindeutiger, zielgerichteter und effektiver. Egal, ob neue Website, neues Verpackungskonzept, ein bevorstehender Markenlaunch, Kampagnen und Promotion-Aktionen oder die strategische Sortimentsausrichtung: nur wer eine hohe Kundenempathie hat, kennt die Bedürfnisse, Erwartungen und Herausforderungen seiner Kunden und kann relevante Angebote zum richtigen Zeitpunkt auf dem geeigneten Kanal und im gewünschten Format anbieten.
C wie CaaS (Containers-as-a-Service)
C wie CaaS (Containers-as-a-Service)
CaaS ist ein Akronym für Containers-as-a-Service und beschreibt ein Geschäftsmodell, bei dem Anbieter von →Cloud-Computing-Plattformen komplette Containerumgebungen inklusive Dienstleistungen zur Verfügung stellen. Zu den containerbasierten Virtualisierungen sowie skalierbaren Dienstleistungen und Services gehören u. a. Orchestrierungstools (auch Orchestrator genannt), eine Reihe von Entwickler-Tools und APIs (Application Programming Interfaces bedeutet Programmierschnittstellen), einen Image-Katalog (die so genannte Registry), eine Cluster-Management-Software sowie die zugrunde liegenden Infrastruktur-Ressourcen. Dabei werden einzelne Anwendungen inklusive aller Abhängigkeiten wie z. B. Bibliotheken und Konfigurationsdateien als gekapselte Instanzen ausgeführt. Dies ermöglicht den Parallelbetrieb mehrerer Anwendungen mit unterschiedlichen Anforderungen auf ein und demselben Betriebssystem und/oder ein Deployment über unterschiedliche Systeme hinweg. Als Containerdienst bezeichnet man den Service eines Anbieters, Software in so genannten Anwendungscontainern zu entwickeln, zu testen, auszuführen oder über IT-Infrastrukturen hinweg zu verteilen. Somit können Anwender Containerdienste in Anspruch nehmen, ohne die dafür benötigte Infrastruktur selbst aufbringen zu müssen. Im Gegensatz zum PaaS-Modell, bei dem sich Software-Entwickler auf die vom Anbieter zur Verfügung gestellten Technologien wie Programmiersprachen oder Frameworks festlegen müssen, bietet Container-as-a-Service dagegen eine vergleichsweise freie Programmierplattform, auf der sich in Containern gekapselte Anwendungen unabhängig von ihren technologischen Anforderungen und Voraussetzungen über heterogene IT-Infrastrukturen hinweg skalieren lassen. Die Bezeichnung ist noch relativ jung und orientiert sich an etablierten →Cloud-Service-Modellen wie →Infrastructure-as-a-Service (IaaS), →Platform-as-a-Service (PaaS) oder →Software-as-a-Service (SaaS). Caas kann in dieser klassischen Aufteilung zwischen IaaS und PaaS eingeordnet werden. Von diesen etablierten Service-Modellen hebt sich Container-as-a-Service jedoch durch einen grundsätzlich anderen Virtualisierungsansatz ab: die Container-Technologie. Die Abrechnung erfolgt nutzungsbezogen im Mietmodell.
C wie Canonical Tag
Ein Canonical Tag ist in der Regel im Header (Kopfzeile) einer Webseite als Quellcode hinterlegt. Dieser wird eingesetzt, um Webseiten mit doppeltem Inhalt (Duplicate Content) richtig auszuzeichnen – also einen Hinweis auf die Originalquelle zu setzen. Diese Ursprungsseite wird auch als die „kanonische“ Seite bezeichnet. Hierzu wird der Quelltext mit dem Attribut rel=“canonical“ gekennzeichnet. So verlinkt man von einer oder mehreren Kopien einer Webseite auf das Original und vermeidet somit, dass man von Suchmaschinen wie z. B. Google „abgestraft“ wird. Nicht im rechtlichen Sinn, sondern durch ein schlechteres Ranking. Der Canonical Tag kommt immer dann zur Anwendung, wenn Inhalte mehrfach verwendet werden „müssen“ z. B. in verschiedenen Landingpages, Blogs, in Shopsystemen, digitalen Katalogen oder Plattformen usw. Scannt ein Crawler eine Webseite und findet darauf einen Canonical Tag, erkennt der Bot, dass die verlinkte Seite das „eigentliche“ Original ist, die „kopierten“ Webseiten also im Hinblick auf Duplicate Content ignoriert werden können. Wichtig ist hierbei, dass innerhalb dieses Quellcodes keine Meta-Tags wie „nofollow“, „disallow“ oder „noindex“ vergeben werden. Außerdem werden durch Suchmaschinen Eigenschaften wie z. B. PageRank auf das Original übertragen. Somit ist der Canoncial Tag ein wichtiges Werkzeug für die OnPage Optimierung und zur Vermeidung von Fehlern in der Bewertung von Inhalten.
C wie CAPTCHA
CAPTCHA ist ein Akronym für Completely Automated Public Turing test to tell Computers and Humans Apart und beschreibt ein Sicherheitsmechanismus zur Unterscheidung von Mensch und Maschine. Es handelt sich um einen so genannten Challenge-Response-Test, bei denen der Nutzer eine einfache Aufgabe (Challenge) lösen muss und das Ergebnis (Response) zurückschickt. Sinnvollerweise sind die gestellten Aufgaben für Menschen einfach zu lösen, hingegen für Computer sehr schwierig oder unlösbar. Neben einfachen Rechenaufgaben, einem Code oder einer einfachen Frage, die korrekt eingegeben werden müssen, werden auch Bilder verwendet oder mittlerweile Audio-Captchas oder Video-Captchas. Somit soll herausgefunden werden, ob die Interaktion mit einem Mensch oder einer Maschine (Computer, Roboter, Bot) stattfindet. Captchas schützen die Ressourcen und dem Schutz des Anbieters oder Betreibers und nicht, wie vielfach angenommen wird, dem Schutz des Benutzers oder dessen Daten. Im Unterschied zum klassischen →Turing-Test, bei dem Menschen die Frage klären, ob sie mit einem Mensch oder einer Maschine interagieren, dienen Captchas dazu, diese Frage durch eine Maschine beantworten zu lassen. Captcha müssen schnell erweitert oder ständig umgeschrieben werden, da man einem Spambot die Logik antrainieren kann. Durch die zunehmende technische Eskalation der immer intelligenter werdenden Algorithmen stellen Captchas perspektivisch das Problem dar, dass diese auch für den Menschen immer schwieriger zu lösen sein werden. Gelegentlich werden Verfahren zur Unterscheidung von Menschen und Maschinen oder Robotern auch als HIP (engl. Human Interaction Proof) bezeichnet.
C wie CAS (Computer Aided Selling)
CAS ist ein Akronym für Computer Aided Selling und beschreibt computergestützte Informations- und Kommunikationssysteme für den Vertrieb (Innen- und Außendienst) sowie Instrumente und Methoden zur Vertriebsunterstützung und -steuerung. CAS werden eingesetzt, um Vertriebsprozesse effizienter und systematisierter zu gestalten und Verkaufsabschlüsse zu erhöhen. Hierzu zählen Hard- und Software sowie die Übertragung der gewonnenen Informationen zum Innen- und/oder Außendienst. Sie dienen u. a. zur Vorbereitung und Nachbereitung von Kundengesprächen, zur Unterstützung bei Verkaufsgesprächen, der Verwaltung von Angeboten, Aufträgen und weiteren Kundeninformationen, der Kommunikation mit dem Kunden sowie internen Fachabteilungen sowie der Steuerung, Tätigkeits- und Ergebniskontrolle.
Computer Aided Selling wurde erstmals 1993 im Zusammenhang mit Database-Marketing erwähnt und ist heute besser bekannt unter dem Begriff →Customer Relationship Management (CRM) oder gelegentlich auch unter Sales Force Automation (SFA).
C wie Chatbot
Der Begriff Chatbot setzt sich aus dem Verb „to Chat“ (sich unterhalten) und „Robot“ (Roboter) zusammen und ist vereinfacht ausgedrückt ein Roboter, mit dem man sich unterhalten kann. Das Ökosystem aus Technologie und Features dahinter ist allerdings deutlich komplizierter und das Thema Chatbot sehr vielschichtig und komplex. Das technische Dialogsystem ermöglicht den Dialog zwischen Mensch und Maschine und bündelt alle Informationen in einem einzigen Kanal, um die Interaktion mit dem User zu bearbeiten. Die Konversation erfolgt über gesprochenen oder geschriebenen Text. Ein Chatbot bietet dabei immer eine Option der Spracheingabe und -ausgabe, in der Regel mittels eines so genannten Chat-Widgets. Leider ist der Begriff Chatbot in den letzten Jahren zu einem Buzzword in der digitalen Welt verkommen, weil sich viele unspezifische Angebote mit diesem Begriff schmücken und/oder unterschiedliche Varianten synonym verwendet werden. Dabei können bereits kleine technische Änderungen einen großen Unterschied bewirken.
In der Regel werden Chatbots auch als virtueller Assistent bezeichnet und in Verbindung mit einem Avatar auf einer Website oder Messaging-Plattform angeboten, um dort auf Anfragen von Nutzern z. B. zu Produkten, Leistungen oder Services zu reagieren. Ein Chatbot funktioniert entweder auf der Basis von definierten Regeln (auch regelbasiert genannt) oder auf Basis künstlicher Intelligenz. Regelbasierte Chatbots greifen auf ein Regelwerk (auch Expertensystem) von definierten Fragen und Antworten zurück. Daher ist dieser digitale Assistent (auch Klick-Bots genannt) nur bei einfachen und standardisierten Prozessen empfehlenswert.
Intelligente Chatbots basieren meist auf künstlicher Intelligenz und Natural Language Processing und können die Daten aus existierenden Dialogen nutzen, um sich weiter zu entwickeln. Hierbei erkennt das System auch hinter langen oder komplexen Informationen die semantischen Zusammenhänge und nutzt NLP, um die Intention des Nutzers und den Inhalt der Frage zu verstehen. Dadurch können diese Chatbots Verknüpfungen erstellen und somit auch anspruchsvolle und komplexe Dialoge führen. NLP dient der maschinellen Verarbeitung natürlicher Sprache. Das Ziel ist eine intelligente Konversation, wie von einem Menschen geführt, durch künstliche Intelligenz zu imitieren. Hierfür nutzt die KI Methoden aus dem Deep-Learning. Die zwei wichtigsten KI-Prinzipien sind das Reassuring und das Dreaming. Mit Reassuring sind intelligente Rückfragen gemeint. Ist sich ein intelligentes Chatbot nicht sicher, welches Themenfeld mit der Frage gemeint ist, stellt es dem Nutzer eine Rückfrage. Je nach Antwort schärft die KI das Themenfeld und lernt somit mit jeder Anfrage dazu. Somit kann ein intelligentes Chatbot auch Antworten auf vorher nicht gestellte Fragen geben oder eine falsche Fragestellung korrigieren.
Anwendungsspezifische Chatbots mischen regelbasierte und intelligente Dialogsysteme und werten diese durch grafische Oberflächen auf. Mit ihnen wird die Usability und User Experience verbessert.
C wie Churn Prediction Analysis
Neukundengewinnung ist für Unternehmen je nach Branche und Sortiment mit einem Faktor 2 bis 4 mal teurer als Bestandskundenpflege. Die Abwanderung von Kunden ist deshalb für Unternehmen in doppelter Hinsicht mit finanziellen Verlusten verbunden (Umsatz und Gewinn sowie Mehraufwand). Je höher die Zahl der Kunden und somit die Churn Rate ist, die einem Unternehmen den Rücken kehren, umso spürbarer sind die wirtschaftlichen Auswirkungen. Churn Prediction (Abwanderungsvorhersage) ist eine Vorausanalyse und untersucht, bei welchen Kunden das Risiko einer Abwanderung besteht. Dadurch sollen rechtzeitig Indikatoren geliefert werden, um durch gezielte Maßnahmen einer Abwanderung entgegen zu wirken. Diese Analyse ist ein zentrales Element in jeder Vertriebs- und CRM-Strategie. Insbesondere für Geschäftsmodelle, bei denen Abonnements oder Verträge abgeschlossen werden wie z. B. im →Software as a Service (SaaS) Bereich, der Energieversorgung, im Banken- und Versicherungswesen, in der Telekommunikation oder Streamingdienste usw. ist die Vermeidung von Kundenfluktuation essenziell. Churn Prediction Analysis nutzt Kundendaten und Simulationen und basiert auf den Algorithmen maschinellen Lernens und Künstlicher Intelligenz. Somit können effektive und effiziente Voraussagen über mögliche Abwanderungen getroffen und durch eine pro-aktive Churn Management Strategie vorher Maßnahmen ergriffen werden. Dies beugt nicht nur der Fluktuation von Kunden vor, sondern spart auch Budget für die Rückgewinnung ehemaliger Kunden.
Herzstück der Churn Prediction Analysis sind die Ursachen für mögliche Abwanderungsgedanken. Hierbei wird differenziert, ob es sich um Einzelkunden oder Kundensegmente, Kunden eines speziellen Sortimentes oder einer Region und dgl. handelt. Parallel wird das Wettbewerbsverhalten analysiert, um Kausalitäten herzustellen. Alle Frühindikatoren möglicher Kundenabwanderungen dienen der Churn Prediction Modell Interpretation. Für diese können so genannte Shapley Values abgeleitet werden, so dass Modelle besser beschrieben und einfacher erklärt werden. Reine Daten liefern nur die Grundlage; erst die Bewertung und Interpretation lassen generelle Ursachen für Fluktuation oder individuelle Gründe für eine Kündigung erkennen. Um einen Churn Prediction Score zu erstellen, braucht man spezifische Kundendaten und insbesondere Verhaltensweisen, die in der Regel in einem herkömmlichen CRM nicht gepflegt werden. Neben den demographischen Daten gehören hierzu die Nutzungsdaten, Verhaltensdaten, Transaktionshistorie, Interaktion mit dem Kundenservice, Außen- oder Innendienst.
C wie Clean Code
Clean Code ist ein Begriff aus der Softwareentwicklung und beschreibt eine logische, verständliche, nachvollziehbare und disziplinierte Implementierung eines Codes. Das Ziel besteht darin, die Software effizient und effektiv zu entwickeln und den Code dabei so zu gestalten, dass er leicht zu lesen, zu ändern, zu erweitern und zu warten ist. Ein Clean Code ist in der Praxis nicht selbstverständlich, denn auch „unsaubere“ Codes können funktionieren. Allerdings führen diese vermehrt zu Fehlern bei Adaptionen oder Problemen bei Erweiterungen. Um dies zu vermeiden wird zunächst eine Analyse durchgeführt (Clean Analysis) und anschließend das Design aufgesetzt (Clean Design). Auch wenn der Aufwand zur Implementierung eines Clean Code initial höher ist, amortisiert sich dieser über den Lebenszyklus der Software. Infolgedessen ist ein Clean Code nicht nur technologisch nachhaltig, sondern auch ökonomisch sinnvoll.
C wie Closed Innovation
Closed Innovation unterscheidet sich von →Open Innovation durch die Art und Weise, wie und wo Innovationen entstehen. Während Closed Innovationen in einem in sich geschlossenen Unternehmensumfeld entwickelt werden, beziehen Open Innovationen externes Wissen und Know-how in das Innovationsmanagement mit ein. Auch wenn die Entwicklung zur offenen Variante tendiert, gibt es gute Gründe für geschlossene Innovationen. Eine der wichtigsten ist der Komplexitätsgrad von Innovationen. Ist dieser besonders hoch, bieten sich Closed Innovation an. Diese stellen nicht nur den Zugriff auf das Know-how sicher, sondern auch auf die Prozesshoheit. Wenn eingesetzte Technologien eng miteinander verknüpft sind, bergen Open Innovation gewisse Risiken, so dass auch in diesem Fall der Closed Innovation der Vorzug gegeben wird. Einflüsse von außen könnten nicht nur dem Innovationsprozess schaden, sondern ggf. auch der aktuellen Produktpalette. Ein Paradebeispiel für Closed Innovation ist Apple mit seinem hochintegrierten und aufeinander abgestimmten Ökosystem. Closed Innovation ist auch dann die bevorzugte Variante, wenn eine Innovation disruptiven Charakter hat und grundlegende technologische Verbesserungen hervorbringt, durch die ein Unternehmen einen USP erzielt und eine echte Differenzierung und einen Wettbewerbsvorteil schafft. Weitere Gründe für Closed Innovation sind zum einen Branchen mit hoher Wettbewerbsdichte und einem intensiven Wettbewerb. Und zum anderen, wenn Innovationskraft, Know-how und Lösungskompetenz im Unternehmen vorhanden sind, so dass das Hinzuziehen externer Kompetenzen nicht notwendig ist. Von der Ideengenerierung über die Entwicklung bis hin zur Vermarktung erfolgt der Innovationsprozess ausschließlich im Unternehmen. Innovationen werden nur innerhalb klar definierter Grenzen des Unternehmens entwickelt. Wissen und Know-how, Technologie und Prozesse bleiben unter Kontrolle des innovierenden Unternehmens. Um geschlossene Innovationen erfolgreich umsetzen zu können, müssen Unternehmen nicht nur höchstqualifizierte Mitarbeiter beschäftigen und einen hochprofessionellen Innovationsprozess aufsetzen, sondern das eigene geistige Eigentum entsprechend schützen. Closed Innovation und Open Innovation können in einigen Fällen auch komplementären Charakter haben.
Der Begriff Closed Innovation geht auf Henry Chesbrough, Professor und Executive Director am Center for Open Innovation an der UC Berkeley zurück, der diesen Begriff erstmals 2003 in seinem Buch „Open Innovation: The new imperative for creation and profiting from technology“ erwähnte. Die Wurzeln der geschlossenen Innovation gehen allerdings auf den Anfang des 20. Jahrhunderts zurück, als z. B. Universitäten noch nicht an der kommerziellen Verwertung von Wissenschaft beteiligt waren. Die gesamte Nachkriegszeit bis in die 1990-er Jahre war von geschlossenen Innovationen geprägt und gilt als die Ära der internen Forschung und Entwicklung. Der Aufbau interner F&E-Ressourcen wurde als einer der entscheidenden Wettbewerbsvorteile gesehen. Aus dieser Zeit stammt auch der Begriff „Not Invented Here“-Syndrom, das die Geisteshaltung von Unternehmensführungen ganz gut beschreibt.
C wie Cloud Computing
Cloud Computing, oft auch nur als „die Cloud“ bezeichnet, beschreibt ein Modell, bei dem bei Bedarf zeitnah geteilte Computerressourcen als Dienstleistung bereitgestellt und nach Nutzung abgerechnet werden. Diese Bereitstellung erfolgt in Form von Rechenzentren, Servern, Datenspeicher oder Applikationen, in der Regel über das Internet und geräteunabhängig. Das Angebot sowie Art und Umfang der Nutzung dieser Computerressourcen ist definiert und erfolgt in der Regel über eine Programmierschnittstelle (API) bzw. für Anwender über eine Website oder App. Infolgedessen werden die Daten nicht lokal auf dem eigenen Computer oder Server abgelegt, sondern befinden sich an einem beliebigen anderen Ort, der oft mit einer Datenwolke („Cloud“) illustriert wird. Die Vorteile sind flexible, skalierbare Ressourcen, die schnell und einfach an den Bedarf angepasst werden können sowie ein nutzungsabhängiger Service, bei dem nur die tatsächlich genutzten Ressourcen bezahlt werden.
Beim Cloud Computing wird zwischen verschiedenen Konzepten unterschieden:
- bei „Infrastructure-as-a-Service“ (IaaS) können Nutzer über das Internet direkt auf einzelne virtuelle Ressourcen zugreifen wie z. B. Netzwerkkomponenten, Server oder Speicher.
- „Software-as-a-Service“ (SaaS) erlaubt es Nutzern, Software-Anwendungen über das Internet zu nutzen, ohne diese auf dem eigenen Computer zu installieren.
- „Platform-as-a-Service“ (PaaS) ist vor allem für Entwickler interessant, die gemeinsam Programme über das Internet entwickeln und anbieten wollen.
C wie Cobots
Kollaborative Roboter oder Cobots (Abkürzung des englischen Begriffs „collaborative robot“) bekommen eine immer größere Bedeutung. Herkömmliche Industrieroboter werden in immer mehr Bereichen der Industrie durch kollaborative Roboter ersetzt oder erweitert. Cobots kommen in Zusammenarbeit mit Menschen im Produktionsprozess zum Einsatz und sind dabei nicht mehr wie der typische industrielle Roboter durch Schutzeinrichtungen von ihren menschlichen Kollegen getrennt. Sie sind im Vergleich zu traditionellen Industrierobotern kompakter, flexibler einsetzbar und leichter zu programmieren. Dabei ersetzen Cobots nicht die Arbeitsplätze des Menschen, sondern ergänzen diese. Die Unternehmensberatung Boston Consulting Group geht davon aus, dass der Einsatz von Cobots die Produktivität pro Mitarbeiter zukünftig um bis zu 30 Prozent steigern wird.
C wie Co-Creation
Co-creation ist eine Innovationsmethode, bei der Unternehmen Externe wie z. B. Lieferanten, Kunden, Experten aus Forschung und Entwicklung oder Partnerunternehmen durch Kollaboration in den Entwicklungsprozess von Produkt-, Prozess-, Service-, Vertriebs- oder Geschäftsmodellinnovationen mit einbeziehen. Co-creation und Open Innovation werden häufig synonym verwendet, obwohl Open Innovation noch einen Schritt weiter geht und die Öffnung des Innovationsprozesses und -managements beschreibt.
C wie Cognitive Computing
Individualisierung und Personalisierung ist einer der Megatrends. Im Zuge dessen passen sich Maschinen immer mehr dem Menschen an. Cognitive Computing verfolgt den Ansatz, dass digitale Technologien wie das menschliche Gehirn funktionieren. Kognitive Systeme sind, im Gegensatz zu heutigen Standardtechnologien, mit künstlicher Intelligenz wie Deep Learning oder Data Mining ausgestattet. Maschinen lernen von ihren Anwendern und entwickeln sich kontinuierlich weiter, um menschliche Lern- und Denkprozesse zu simulieren. Das Ziel ist, auf Basis von Daten aus der Vergangenheit eigene Lösungen für die Gegenwart und Strategien für die Zukunft zu entwickeln. Kognitive Systeme sind im Vorfeld nicht auf konkrete Problemlösungen programmiert, sondern lernen selbstständig durch die gemachten Erfahrungen und gesammelten Daten. Sie entwickeln eigene Lösungen und Strategien durch die Analyse der Datenbasis. Diese Systeme interagieren in Echtzeit mit ihrem Umfeld und verarbeiten große Datenmengen. Hierfür wurden spezielle Chips entwickelt, die sich am menschlichen Gehirn orientieren. Mit ihrer Unterstützung werden kognitive Prozesse nachgebildet und Computer anpassungsfähiger. Diese komplexe Hardware und die Interfaces machen den Unterschied zu klassischen Anwendungen künstlicher Intelligenz aus. Kernkomponenten des Cognitive Computing sind Algorithmen des maschinellen Lernens, die die vorliegenden Daten kontinuierlich nach Mustern untersuchen und ihre Analysemethoden ständig verfeinern. Wichtig ist, dass beim Cognitive Computing sämtliche Informationen in ihrem Kontext wahrgenommen werden. Hierzu gehören kontextbezogene Merkmale wie z. B. Zeit, Ort und Personen, die die Bedeutung von Informationen beeinflussen. Zum Einsatz kommen text-, sprach- oder gestenbezogene Eingaben.
C wie Cogs
Cogs sind Anwendungen des →Cognitive Computing. Sie verstehen Sprache und erkennen in einem Satz das Subjekt, Prädikat und Objekt. Cogs durchforsten bei Fragestellungen das Internet und suchen parallel nach Pro und Contra, nach Antworten und deren subjektiver Bewertung durch User. Über Spracherkennung können Algorithmen zur Stimmung des Users abgeleitet werden, um eine Aussage in ihrer Subjektivität beurteilen zu können. Informatiker sprechen von Ontologien.
Während bisherige Apps nur in der Lage waren, Texte zu erkennen und zu analysieren, beginnen Cogs damit, Hypothesen aufzustellen und diese mit Wahrscheinlichkeiten zu gewichten. Die eigentliche Weiterentwicklung beginnt erst, wenn die Ergebnisse mit richtig oder falsch bewertet werden. Cogs sind in der Lage, unsinnige Fragen zu erkennen und weichen nicht durch eine „vorprogrammierte“ Standardantwort aus, wie dies häufig bei digitalen Sprachassistenten der Fall ist. Sie erlauben sich, auch mal auf eine Frage mit „Bullshit“ zu antworten, wie Watson 2013, als ihm eine bewusst unlogische Übungsfrage gestellt wurde.
Cogs sind auf gutem Weg, Verknüpfungen zwischen Nervenzellen und somit das Denken zu simulieren. Sie finden mit der Zeit autonom heraus, ob ihnen gelieferte Informationen helfen. Daher ist es auch weniger kritisch, ob ihnen „gute oder schlechte Daten“ zur Verfügung gestellt werden. Durch dieses Feedback minimieren Cogs ihre eigene Fehlerquote und perfektionieren sich selbst – der Beginn der so genannten Superintelligenzen. Möglich sind alle diese Entwicklungen, da die Cogs beginnen, die menschlichen Sinne zu imitieren. Wissenschaftler arbeiten bereits daran, ein Backup des menschlichen Gehirns auf dem Computer abzuspeichern, um Verknüpfungen (Synapsen) aus Logik und Intuition herzustellen.
Mögliche Einsatzgebiete und Anwendungen sind gigantisch. Erste Ansätze dienen z. B. zur Analyse von Schlafstörungen und Depressionen oder Krankheiten per Biomarker zu „erriechen“. Besonders interessant sind Ansätze in Bezug aufs Schmecken und Fühlen. Erste Prototypen von Cogs können über Geschmacksrezeptoren die Zusammensetzung von Lebensmitteln erkennen und mögliche Gefahren, zum Beispiel bei Allergikern, aufzeigen. Andere Cogs machen das „Fühlen“ erlebbar. Über spezifische Vibrationsmuster können Texturen vermittelt werden, so dass nahezu jede Art von Oberfläche und das zugehörige Empfinden dieser simuliert werden kann. Für die Bekleidungsindustrie wäre diese Technologie ein Quantensprung, da Mode auch im Onlinegeschäft für Kunden „erfühlbar“ werden würde.
C wie Collaborative Innovation Canvas
Der Collaborative Innovation Canvas betrachtet das Innovationsmanagement in einer multidimensionalen Ebene. Zentrales Element ist die Value Proposition. In der horizontalen Ebene werden die unterschiedlichen Perspektiven der am Innovationsprozess Beteiligten betrachtet. Hierzu gehört die
- Unternehmensperspektive (Shareholder, Strategie, KPI)
- Prozessperspektive (Kennzahlen, Entscheidung, Umsetzung)
- Teamperspektive (Kompetenzen, Kultur, Kommunikation)
- Markt-/Kundenperspektive (Marktumfeld, Kundensegment, Kundenbeziehung)
und das sich daraus resultierende Befähigungsmodell. In der vertikalen Ebene wird das Werteversprechen, die Werteerfassung sowie die operationalisierte Wertschöpfung unterschieden. Sie spiegelt die strategische, konzeptionelle und operative Ebene. Die dritte Dimension wird durch eine diagonale Ebene dargestellt, mit der die beiden Pole zwischen dem technologiegetriebenen Push-Ansatz und dem marktgetriebenen Pull-Ansatz gegenüber gestellt werden.
Der Collaborative Innovation Canvas by e‑nnovalytics® ist die treibende Kraft hinter einem erfolgreichen Innovationsmanagement und vereint die strategische und operative Ebene genauso wie die unterschiedlichen Perspektiven und Interessen. Außerdem schafft er die Grundlage für eine innovationsfreundliche Unternehmens- und Projektkultur.
C wie Company Builders
Company Builders ist ein Begriff, der häufig im Zusammenhang mit Startups und synonym zu →Inkubator oder →Accelerator verwendet wird. Company Builders unterscheiden sich von Inkubatoren und Acceleratoren darin, dass diese überwiegend aus dem eigenen Unternehmen kommen. Es werden eigene Ideen entwickelt und das passende Team intern zusammengestellt. Dadurch haben Company Builders eine deutlich größere Mitgestaltung sowie Rolle bei der Mitentwicklung, Vermarktung und Skalierung neuer Unternehmen. In der Unternehmensentwicklung sind sie über alle Wachstumsphasen hinweg intensiv involviert. Das Ziel besteht darin, bestehende oder neue Geschäftsfelder mit eigenen Kompetenzen und Ressourcen zu entwickeln oder weiter zu entwickeln. Im Gegensatz zum klassischen eigenständigen Company Builder verfolgt der Corporate Company Builder das Ziel, neue Geschäftsmodelle nicht nur zu entwickeln und aufzubauen, sondern diese in die Unternehmensstruktur als Geschäftseinheit, Spin-out oder Beteiligung zu konsolidieren. Company Builders verfügen über die nötigen finanziellen Ressourcen, das Netzwerk und Managementkompetenzen. Ihr Ziel ist es, möglichst viele stark wachsende und kommerziell erfolgreiche Startups hervorzubringen.
C wie Concierge MVP
Concierge MVP ist eine besondere Variante des →Minimum Viable Products. Hierbei wird der Kundenauftrag für die Testphase manuell ausgeführt, der später im Geschäftsmodell automatisiert erfolgen soll. Den Begriff prägte Eric Ries 2012 mit dem Konzept →Lean Startup. Bevor man mit viel Zeit- und Kostenaufwand einen (perfekt) automatisierten Dummy investiert, wird das Prinzip bzw. prinzipielle Leistungsversprechen beim Kunden manuell getestet. Der Aufwand ist zunächst etwas höher, dafür bekommt das Team eine wertvolle Lernkurve. Dadurch erfährt man, ob es einen Bedarf an dem gibt, was man anbietet, wie der spätere Prozess genau aussehen wird und was der Kunde bereit ist, dafür zu zahlen usw. Der Vorteil beim Concierge MVP besteht darin, dass nicht einmal ein →Prototyp gebaut werden muss.
C wie Corporate Digital Responsibility (CDR)
Digitale Transformation wird in der Regel mit technologischem Fortschritt und wirtschaftlichem Wachstum in Verbindung gebracht. Die gesellschaftlichen Dimensionen und sozialen Aspekte dieser Entwicklung kommen in der Regel zu kurz. Corporate Digital Responsibility (CDR) bezieht sich auf die Unternehmensverantwortung in einer digitalen Gesellschaft und berücksichtigt die gesellschaftlichen, ökonomischen und ökologischen sowie sozialen Veränderungen durch die Digitalisierung. Der Begriff tauchte 2016 erstmals auf und steht für die freiwillige Selbstverpflichtung zum nachhaltigen Wirtschaften von Unternehmen. Er ist ein wichtiger Erfolgsfaktor und kulturprägend in der digitalen Transformation von Unternehmen. Da der digitale Wandel mittlerweile tiefgreifende Veränderungen in allen Branchen verursacht, ist CDR nicht nur für Digital- oder IT-Unternehmen relevant, sondern für alle Unternehmen mit einem digitalen Geschäftsmodell. Neben Selbstverständlichkeiten wie der Einhaltung und Erfüllung gesetzlicher Anforderungen und Standards sowie dem Umgang mit Kundendaten, Datenschutz sowie geistigem Eigentum usw. erstreckt sich CDR auch auf umfassende ethische Überlegungen und moralische Werte, nach denen ein Unternehmen agiert. Hinzu kommt die Beachtung digitaler Nachhaltigkeit z. B. im Umgang mit „digitalen Artefakten“ wie Big Data, Smart Data, Algorithmen und Künstlicher Intelligenz. Diese stehen oftmals im Widerspruch zu grundlegenden Verfassungswerten wie Humanität, Solidarität und Verantwortung. Corporate Digital Responsibility (CDR) greift die Probleme auf, die sich u. a. aus der Lücke oder Defiziten digitaler Fähigkeiten ergeben (ein Viertel aller Deutschen stehen aufgrund fehlender Kompetenzen im „digitalen Abseits“) oder in der „unethischen“ Nutzung von Kundendaten und der „Korruption“ der digitalen Selbstbestimmung. Ein weiteres Thema ist der ungleiche Zugang sowie der ökologische Fußabdruck der digitalen Technologie. Außerdem setzt sich CDR mit dem Druck auf Gemeinschaft und Wohlbefinden auseinander, der z. B. durch einen „Kollaps der Realität“ in den sozialen Medien entstanden ist und noch weiter zu eskalieren scheint oder auch dem Problem einer intransparenten digitalen Welt, deren „unsichtbare“ Regeln von der Gemeinschaft nicht kontrolliert werden können. Corporate Digital Responsibility (CDR) setzt sich in gleicher Weise mit der Nutzung von Chancen und Potenzialen sowie dem Abwenden von Risiken und Nachteilen auseinander. Das höhere Ziel besteht darin, einen „Shared Value“ im digitalen Wirtschaften für Gesellschaft und eigenem Unternehmen und somit neue Wertschöpfungsketten zu generieren.
C wie Coverage-Faktor
Der Coverage-Faktor zeigt in der Marktforschung an, zu wie viel Prozent eine Untersuchung den Gesamtmarkt abdeckt. Eine Coverage von z. B. 75% besagt, dass die ermittelten Marktdaten zu Dreiviertel den Gesamtmarkt abdecken.
C wie Co-Working Space
Co-Working bedeutet wörtlich übersetzt “nebeneinander arbeiten“ und trat als Konzept Anfang der 2000-er Jahre erstmals in den USA unter dem Begriff „Shared Workspace“ auf. Die im Silicon Valley in Kalifornien entstandene Arbeitsform bezeichnet einen zeitlich flexiblen Arbeitsplatz, den sich mehrere Menschen teilen. Dieser findet in so genannten „Co-Working Spaces“ statt, von denen der erste im Jahr 2005 in San Francisco eröffnet wurde. Typisch sind große Räume mit offener Architektur. Zu Beginn als reines Phänomen in Großstädten und Metropolen zu beobachten, hat sich das Konzept mittlerweile weltweit sowohl als neue Arbeitsform im Sinne der Arbeit 4.0 (New Work) etabliert und findet zunehmend auch im ländlichen Raum statt. Anders als in einem herkömmlichen Business Center sind Co-Working Spaces „sozialer“. Sie haben sich neben dem klassischen Arbeitsplatz im Unternehmen und dem Home Office als „dritte Orte“ entwickelt, die sich vor allem durch Flexibilität, Unabhängigkeit und Zugänglichkeit auszeichnen. So können die Co-Worker (Nutzer) aus verschiedenen Tarifen wählen, wann, wie häufig und wie lange sie den Space nutzen wollen und welche technischen Angebote und digitalen Dienstleistungen sie in Anspruch nehmen. Hierzu werden so genannte Plug and Play-Arbeitsplätze angeboten: volle Arbeitsplatz-Infrastruktur, Service, Reinigung, Nebenkosten, Highspeed-Internetzugang, Kaffee-Flatrate und manchmal auch Fitnessräume oder andere Angebote zum physischen oder psychischen Ausgleich.
Eine der Leitideen von Co-Working Spaces ist, dass dort Menschen verschiedenster beruflicher Qualifikationen, Erfahrungen und Kompetenzen aufeinandertreffen, so dass durch Interaktion Synergien genutzt werden und neue Ideen und Projekte entstehen. Als multifunktionale Begegnungsräume bilden Co-Working Spaces einen Indikator für innovative Kollaboration und dem Ausbau persönlicher Netzwerke. Darüber hinaus finden oft Veranstaltungen und Workshops von und für die Co-Worker statt, die zum einen den Community-Gedanken, gleichzeitig aber auch die berufliche Weiterbildung fördern. Vor allem das Miteinander und die Gemeinschaft innerhalb der Co-Working Spaces bilden einen großen Vorteil gegenüber dem Arbeiten im Home Office, wo man beruflich und sozial oft isoliert ist.
Nahezu alle Co-Working Spaces verfolgen die gleichen fünf Grundwerte: Zusammenarbeit, Community, Nachhaltigkeit, Offenheit und Zugänglichkeit. Diese repräsentieren einen neuen Work-Life-Style, der durch einen Ideen- und Informationsaustausch geprägt ist und die Arbeitsumgebung gleichzeitig zu einer Lernumgebung umfunktioniert.
C wie Cradle-to-Cradle (C2C)
Cradle-to-Cradle kann sinngemäß „vom Ursprung zum Ursprung“ übersetzt werden und beschreibt im Prinzip einen Ansatz für eine durchgängige und konsequente Kreislaufwirtschaft. Dieses Denken in Kreisläufen wurde Ende der 1990er-Jahre von dem deutschen Chemiker Michael Braungart und dem US-amerikanischen Architekten William McDonough entworfen. In ihrer Philosophie sind Produkte nach dem „Cradle-to-Cradle-Prinzip“ solche, die entweder als biologische Nährstoffe in biologische Kreisläufe zurückgeführt oder als „technische Nährstoffe“ kontinuierlich in technischen Kreisläufen gehalten werden können, also durch Wiederaufbereitung wieder dem Kreislauf zugeführt werden. Hierbei darf nicht nur der funktionale Nutzen im Mittelpunkt stehen, sondern auch die Verwendung der Rohstoffe nach der Nutzung. Kostbare Ressourcen werden nicht verschwendet, sondern wieder verwendet.
Cradle-to-Cradle basiert auf einer radikalen Denkweise in Kreisläufen und orientiert sich dabei an der Natur, denn biologische Kreisläufe lassen keinen Abfall zurück. Der perfekte Kreislauf bedeutet im Endeffekt nichts anderes als ein völliges Umdenken im Produktlebenszyklus der Produkte – angefangen vom Produktdesign, der Gewinnung der Rohstoffe, der Produktion und dem Inverkehrbringen, der Nutzung bis hin zur Rücknahme und Wiederverwendung. Das Ergebnis wäre eine Welt ohne Müll. Der Cradle-to-Cradle-Ansatz schließt auch die umweltfreundliche Produktion und die Nutzung von erneuerbaren Energien mit ein, also den biologischen und technischen Kreislauf.
Aktuell basiert unsere auf Effizienz getrimmte und auf Gewinnmaximierung ausgerichtete Absatzwirtschaft noch auf das genaue Gegenteil. In der Abfallwirtschaft spricht man deshalb vom Cradle-to-Grave-Prinzip, das nichts anderes bedeutet, dass Produkte nach dem Ende ihrer Nutzung auf dem Müll landen. Zur Produktion werden immer wieder neue Rohstoffe benötigt, die bekanntlich endlich sind – von der Umweltverschmutzung durch den Müll abgesehen. Braungart und McDonough haben im Kontrast zu „Ökobilanz“ (die den Stoffkreislauf und dessen Umweltwirkungen „von der Wiege bis zur Bahre“ analysieren) und „Ökoeffizienz“ auch den Begriff „Ökoeffektivität“ geprägt.
C wie Cradle-to-Grave-Prinzip
→Cradle-to-Cradle-Prinzip
C wie Creative Problem Solving
Creative Problem Solving ist eine Kreativtechnik aus den 1950-er Jahren und wurde von Alex Osborn und Sidney J. Parnes entwickelt. Nachdem Alex Osborne zuvor die Grundregeln des Brainstormings beschrieben hatte, wollte er ein Modell für den gesamten Prozess der kreativen Problemlösung entwickeln. Hierbei unterschied er zwischen zwei grundlegenden Denkweisen, die im Creative Problem Solving Prozess stattfinden:
- divergentes Denken (Denken in vielen Optionen) und
- konvergentes Denken (Evaluierendes Denken, Entscheidungen treffend)
Isaksen und Treffinger entwickelten den Creative Problem Solving Prozess in den 1990-er Jahren weiter und unterschieden in drei Phasen und sechs Teilschritte:
- Explore the Challenge (Erkunden der Herausforderung)
1.1 Mess Finding (Bestimmen des Ziels)
1.2 Data Finding (Sammeln von notwendigen Informationen)
1.3 Problem Finding (Identifizieren des Problems, das gelöst werden muss, um das Ziel zu erreichen)
- Generate Ideas (Generieren von Ideen)
2.1 Idea Finding (Generieren von Ideen für die Lösung des identifizierten Problems)
- Prepare for Action (Handlung vorbereiten)
3.1 Solution Finding (Ausarbeiten von Ideen zu einer umsetzbaren Lösung)
3.2 Acceptance Finding (Handlungsschritte planen)
C wie Cross-Impact-Analyse
Die Cross-Impact Analyse beschreibt eine Prognosetechnik. Hierbei handelt es sich um eine aufwändige Methode zur Erstellung und Beurteilung von Szenarien mit vielen, nicht analytisch eindeutig zu identifizierenden Faktoren. Mit der Wechselwirkungsanalyse werden Zusammenhänge (engl. cross impact) zwischen verschiedenen zukünftig möglicherweise auftretenden Ereignissen simuliert, anschließend analysiert deren gegenseitige Auswirkungen bewertet. Die meisten Ereignisse bzw. Entwicklungen stehen auf irgendeine Art und Weise mit anderen Ereignissen und Entwicklungen in Beziehung (Korrelation). Andere Prognosetechniken wie z. B. die →Delphi-Methode können nur abgegrenzte Problemstellungen betrachten. Verknüpfungen und deren Abhängigkeiten werden hierbei nicht berücksichtigt. Die Cross-Impact-Analyse schließt diese Lücke und wird u. a. in der →Szenario-Technik eingesetzt.
Das Grundprinzip der Cross Impact Matrix (CIM) ist die Gegenüberstellung von Ereignissen in einer Matrix. Hierbei werden die betrachteten Ursachen und möglichen Wirkungen ins Verhältnis gesetzt und somit die Wechselwirkungen erfasst. Die geschätzte Eintrittswahrscheinlichkeit dient als Anfangswert für eine numerische Simulation. In jedem Kreuzungspunkt der Matrix tragen befragte Experten unabhängig voneinander ein, wie sie den Einfluss der jeweiligen Ursache auf die zugehörige Wirkung einschätzen. Dies kann in einer einfachen Symbolik (positiver Einfluss, kein Einfluss, negativer Einfluss) sein oder in einer Zahlenskala (meist von -3 bis +3). Aus den Einzelergebnissen wird eine gemeinsame Matrix berechnet. Hierfür wird häufig eine →Monte-Carlo-Simulation verwendet. Diese wird anschließend den Experten zur Beurteilung vorgelegt.
Die Cross-Impact-Matrix dient der Beurteilung der Eintrittswahrscheinlichkeit verschiedener, möglicher Zukunftsszenarien (Futuribles genannt). Sie hat einen deskriptiven Charakter und soll nicht zur Entscheidungsfindung dienen, sondern zur Orientierung. Bei komplexeren Fragestellungen kommt eine Simulationssoftware zum Einsatz. Anwendungsgebiete sind volkswirtschaftliche Zusammenhänge wie z. B. die Analyse des Weltölmarktes oder die Liberalisierung des Energiemarktes. Des Weiteren wird die Cross-Impact-Matrix auch gerne in der Abschätzung der Technologieentwicklung und ihrer Auswirkungen eingesetzt. Selbst für kleinere Analysen z. B im Rahmen einer detaillierten Businessplan-Entwicklung kann die Cross-Impact-Analyse sinnvoll sein, z. B. wenn verschiedene Business-Cases betrachtet und bewertet werden.
Die Cross-Impact-Analyse zeigt bei einer kritischen Betrachtung einige Schwächen auf. So erfolgt die Auswahl und Beurteilung der relevanten Faktoren subjektiv. Des Weiteren baut die Analyse auf Datenpaaren auf und ignoriert, dass in der realen Welt mehrere Entwicklungen ein Ereignis gleichzeitig beeinflussen können. Das Sammeln und Auswerten der Daten kann sehr zeitaufwendig sein, gleichzeitig ist gerade die ausführliche Auseinandersetzung mit verschiedenen Einflussfaktoren und deren Auswirkungen einer der größten Stärken der Cross-Impact-Analyse. Sie liefert oft Denkanstöße für alternative Vorgehensweisen.
C wie Crowdfunding
→Crowdsourcing
C wie Crowdsourcing
Der Begriff Crowdsourcing wurde geprägt vom amerikanischen Autor Jeff Howe. Er setzt sich aus den englischen Wörtern Crowd (Menge, Menschenmasse) und Outsourcing (Auslagerung) zusammen. Beim Crowdsourcing (auch Crowdworking genannt) verlegt eine Organisation traditionell interne Aufgaben und Prozesse nach außen. Eine Gruppe Externer (so genannte Crowdsourcees) wie z. B. Kunden, Geschäftspartner, Branchenexperten oder auch eine hochmotivierte und engagierte Community z. B. im Rahmen eines Hackathons, die an Innovation und Disruption interessiert ist, beteiligen sich aktiv an ausgelagerten Aufgabenstellungen. Crowdsourcing wird auch zur Ideenbewertung eingesetzt, wenn Unternehmen im Rahmen von Open Innovation Projekten mehrere Ideen bewerten muss.
Crowdsourcing ist hierbei eine interaktive Form der Zusammenarbeit, die kollaborativ oder wettbewerbsorientiert erfolgen kann. Hierzu wird eine Anzahl extrinsisch oder intrinsisch motivierter Experten mit einem unterschiedlichen Wissensstand einbezogen. Gegenstand sind in der Regel Produkte oder Dienstleistungen mit einem unterschiedlichen Innovationsgrad, die durch die Gruppe reaktiv aufgrund externer Anstöße oder proaktiv durch selbsttätiges Identifizieren von Bedarfen entwickelt werden.
Das Bündeln dieses Wissens vieler Experten wird auch als Schwarmintelligenz oder kollektive Weisheit bezeichnet. Erst durch die Entwicklung des Web 2.0 mit seinen sozialen Netzwerken und neuen Informations- und Kommunikationssystemen ist das gemeinschaftliche Entwickeln, Diskutieren, Weiterdenken und Optimieren von Ideen in der Masse möglich. Crowdsourcing erhöht die Geschwindigkeit, Qualität, Flexibilität, Skalierbarkeit und Vielfalt bei verringerten Kosten und bringt neue Ideen und Perspektiven ein.
In den letzten Jahren haben sich besondere Formen rund um das Crowdsourcing etabliert und werden teilweise synonym verwendet, was nicht immer korrekt ist. Co-creation bezeichnet die gemeinsame Produktentwicklung von Unternehmen und einer Gruppe Externer. Von der Entwicklung der Idee über die Implementierung bis zum Verkauf sind die Externen beteiligt. Beim Crowdfunding (Schwarmfinanzierung) geht es primär darum, Kapitalgeber zu gewinnen. Weniger im Sinne eines Investors oder Inkubators, sondern über Viele, die sich zusammenschließen sich finanziell mit Eigenkapital an der Unterstützung von Projekten, Produktentwicklungen oder Geschäftsideen beteiligen. Das Testen von Prototypen und ersten Anwendungen durch eine freiwillige Gruppe wird Crowdtesting genannt. Dadurch ist es möglich, Entwicklungen vor der offiziellen Markteinführung auf unterschiedlichsten Systemen auf Fehler zu prüfen und ihre Usability zu optimieren. Open Source heißt übersetzt offene Quelle und steht für öffentlich verfügbare Quelltexte bei Software. Programme dürfen je nach Lizenz verwendet, weitergegeben, verändert und damit auch weiterentwickelt werden. Im Unterschied zum klassischen Crowdsourcing, bei dem es in der Regel ein Verhältnis von Auftraggebern (in der Regel Unternehmen) und Auftragnehmern (Mitglieder der Crowd) gibt, entstehen Ergebnisse bei Open Source dezentral. Wissen wird nicht wie in der Regel bei Crowdsourcing gegen Vergütung oder andere Incentives erarbeitet, sondern in der Regel frei zur Verfügung gestellt. Entscheidet sich eine Organisation für Open Innovation öffnet sie ihren Innovationsprozess über die Unternehmensgrenzen hinaus. Bei der Produktentwicklung fließen Ideen sowohl aus der internen Organisation als auch durch Externe ein wie z. B. durch Kunden, Lieferanten, Geschäftspartnern oder Hochschulen und Forschungseinrichtungen etc. Unternehmen nutzen dafür auch das Crowdsourcing.
C wie Crystal Methode
Crystal ist der Oberbegriff für verschiedene agile Methoden in der Softwareentwicklung. Die einzelnen Methoden wurden zur Unterscheidung nach Farben (Crystal Clear, Crystal Yellow, Crystal Orange, …) bezeichnet. Die einfachste Variante Crystal Clear eignet sich für Teamgrößen von zwei bis sechs Personen, die anderen Varianten heißen Crystal Blue, Crystal Magenta, Crystal Red, Crystal Orange Web, Crystal Orange und Crystal Yellow. Sie spiegeln die jeweiligen Teamgrößen der entsprechenden Projekte wider. Abhängig von der Teamgröße und der sich daraus ergebenden Crystal Variante verändern sich auch die Anzahl der Rollen, der Dokumentationsumfang und die Menge der Methoden, die eingesetzt werden.
Die Entwicklung der Methode geht auf Alistair Cockburn zurück. Anfang der 1990-er Jahre sollte er für IBM Consultings eine Methode entwickeln, die der objektorientierten Entwicklung diente. Anders als heute gab es vor 30 Jahren keine agilen Methoden, mit denen die Aufgabenstellung gelöst werden konnte – es gab diese nicht mal, um neue Ideen damit abzugleichen. Infolgedessen ging Cockburn ganz klassisch vor und analysierte extrem viele Projekte und führte Interviews mit den Projektbeteiligten durch. Hierbei kam er zu dem Ergebnis, dass jedes Projekt seine Eigenart hat und mit anderen Projekten kaum vergleichbar ist. Eine seiner ersten Erkenntnisse war, dass unterschiedliche Projekte mit verschiedenen Herausforderungen und heterogener Teambesetzung mit einheitlichen und uniformen Regeln nicht erfolgreich umgesetzt und der Individualität eines jeden Projektes nicht gerecht werden können. Eine weitere Erkenntnis war, dass nur eine regelmäßige Kommunikation im Projektteam die notwendige Transparenz schafft sowie Motivation und Identifikation hochhält. Beides hielt Cockburn für den Erfolg oder Misserfolg für essenziell. Cockburn ergänzte die erfolgskritischen Faktoren noch um drei Bausteine:
- die Anzahl der Projektmitarbeiter, die koordiniert werden müssen
- die so genannte Kritikalität, mit der eingestuft werden kann, ob sich Fehler in der Softwareentwicklung nur auf den Komfort des Anwenders (niedrigste Stufe), den finanziellen Mehraufwand für den Auftraggeber, den Fortbestand des Unternehmens oder sogar auf Menschenleben (höchste Stufe) auswirken können
- Prioritäten, die individuell und nach Bedarf bestimmt werden.
Alle Crystal-Methoden weisen folgende, gemeinsame Merkmale auf:
- Der Kunde erhält regelmäßig (mindestens pro Quartal) eine funktionierende Zwischenversion der Software
- Permanente Suche, Bewertung und Priorisierung von Verbesserungsvorschlägen
- Probleme und Meinungsverschiedenheiten (sowohl innerhalb des Teams als auch zu Vorgesetzten) werden offen angesprochen
- Die Kommunikation innerhalb des Teams und zum Kunden ist eng und intensiv
- Auf Kundenseite muss ständig ein kompetenter Ansprechpartner als Benutzer des zukünftigen Produktes erreichbar sein
- Alle am Projekt beteiligten Mitarbeiter arbeiten grundsätzlich lösungs- und zielorientiert
- Einsatz von Versionsverwaltung bzw. einem Konfigurations-Management
- Häufige (automatisierte) Tests von Programmcode sowie regelmäßige Erstellung einer lauffähigen Testversion.
Crystal-Methoden haben ihre Stärken im Bereich User-Testing, Qualitätsmanagement und in der Implementierung. Mittel bis schwach ausgeprägt sind dagegen Projektmanagement, Requirement-Management, die Integration und Einführung sowie Wartung. Ungeeignet ist die Methode für technische Konzeption und Systemdesign.
C wie Culture in Action Index (CIA)
Eine der essenziellen Herausforderungen bei der digitalen Transformation von vor allem etablierten und traditionellen Unternehmen ist die Veränderung der Unternehmenskultur. Der hierzu notwendige Change-Prozess muss regelmäßig überprüft, ggf. angepasst und neu justiert werden. Mit dem Culture in Action Index (CIA) kann der Transformationsprozess und -fortschritt gemessen werden. Er ist ein Barometer für den Kulturwandel im Unternehmen. Hierbei werden Mitarbeiter befragt, wie sie selbst, wie Kollegen und wie direkte Führungskräfte andere motivieren bzw. demotivieren, die angestrebte Unternehmenskultur zu leben und sich mit ihr identifizieren. Daher fokussiert sich der Kulturindex auf die Mitarbeiter- und Kollegen-Perspektive und ein Maß dafür, wie sie über die eigene Organisation denken und ob sich Mitarbeiter in Bezug auf ihr Arbeitsumfeld und ihre Aufgaben glücklich, neutral oder traurig fühlen. In der Praxis haben sich 15 Fragen bewährt:
- Haben Sie das Gefühl, dem Management vertrauen zu können? Warum oder warum nicht?
- Haben Sie das Gefühl, dass Sie Möglichkeiten haben, dem Management Feedback zu geben?
- Haben Sie das Gefühl, dass Ihre Meinung wichtig ist?
- Fühlen Sie sich in Ihrem Job oft gestresst oder überfordert?
- Erhalten Sie oft Feedback oder erhoffen sich ein Feedback von Ihrem Vorgesetzten?
- Haben Sie das Gefühl, dass Sie eine gute Zusammenarbeit mit Ihrem Vorgesetzten haben?
- Haben Sie das Gefühl, offen kommunizieren und eine Meinung äußern zu können?
- Was würde Sie an Ihrem Arbeitsplatz glücklicher machen?
- Fühlen Sie sich sicher an Ihrem Arbeitsplatz? Warum oder warum nicht?
- Haben Sie das Gefühl, dass es sich lohnt, alles für Ihren Job zu geben?
- Glauben Sie, dass Sie einen Krankheits- oder Urlaubstag ohne Sorgen hinnehmen können?
- Haben Sie flexible Arbeitszeiten?
- Sind Sie stolz darauf, anderen von Ihrem Arbeitsplatz zu erzählen?
- Würden Sie anderen empfehlen, sich bei Ihrem Arbeitsplatz zu bewerben? Warum oder warum nicht?
- Fühlen Sie sich mit Ihren Kollegen verbunden?
Idealerweise sollten diese Fragen nicht einmalig gestellt werden, sondern in regelmäßigen Abständen (innerhalb von 1 bis 2 Jahren) und die Veränderungen beobachtet werden. Der so genannte Tipping Point ist erreicht, wenn 35% der Mitarbeiter konsistent ein kulturell verändertes Verhalten an den Tag legen.
C wie Culture Map Methode
Die Cultur Map Methode wird im Rahmen von →Change-Prozessen angewendet und ist ein innovativer Ansatz, um →Unternehmenskultur sichtbar und somit erlebbar bzw. greifbar zu machen. Die partizipative Methode basiert auf der Memetik, der Lehre der kulturellen Evolution und kombiniert wissenschaftliche Forschung und innovative Theorien mit praktischen Erkenntnissen aus der Zusammenarbeit mit Unternehmen und Organisationen. Mit einer Culture Map werden Verhaltensweisen in Organisationen sichtbar gemacht und ihre Auswirkungen identifiziert und charakterisiert. Diese liefern die Grundlage für unterschiedliche Unternehmenskulturen. Die Culture Map stellt Kulturmuster anhand von sieben Werteclustern dar, die jeweils durch eine Farbe gekennzeichnet sind. Die Cluster zeigen die typischen Charakteristika einer Unternehmenskultur.
Violette Unternehmenskulturen zeichnen sich durch ein patriarchisches Verhalten aus. Der Unternehmensgründer gibt den Ton an. Treue und Loyalität bis hin zur bedingungslosen Gefolgschaft sind das oberste Gebot. Die Individualität des Einzelnen ist nicht erwünscht, Anpassung und Konformität werden erwartet. Schlüsselpositionen im Unternehmen werden nur an interne und altgediente Mitarbeiter vergeben. Nach außen wird eine hohe Identifizierung mit dem Unternehmen demonstriert. Dies zeigt sich in einer starken Corporate Identity bis hin zu einer einheitlichen Kleidung. In dem meisten Fällen ist das Corporate Design eher konservativ und visualisiert traditionelle Unternehmenswerte. Gleichzeitig gibt es eine klare Abgrenzung nach außen. Ideen und Vorschläge, die nicht von den eigenen Mitarbeitern entstanden sind, werden konsequent und ungeprüft abgelehnt. Violette Unternehmen halten am Status quo fest und sind an Veränderungen nicht interessiert. Das bestehende Geschäftsmodell ist auf langfristiges Wachstum ausgelegt.
Rote Unternehmenskulturen zeichnen sich dagegen durch ein autoritäres, egoistisches und machtgeprägtes Verhalten aus. Im Mittelpunkt steht bedingungsloses Wachstum um jeden Preis. Der Führungsstil im Unternehmen ist geprägt durch Top-down-Entscheidungen bis hin zur Sturheit („mit dem Kopf durch die Wand“). Scheitern und Aufgeben sind keine Option. Klar strukturierte Prozesse mit Regeln und Planungsphasen wird man in Unternehmen mit einer roten Kultur vergeblich suchen. Es gilt das Motto „Learning by doing“ und „Jeder gegen jeden“. Führungskräfte agieren hemdsärmelig und sehr operativ getrieben. Das Motto lautet: „Done is better than perfect.“ Eine besondere Form roter Unternehmenskulturen erkennt man an einem Realitätsverlust. „Ich mache mir die Welt, wie sie mir gefällt“ von Pipi Langstrumpf lässt grüßen.
Blaue Unternehmenskulturen sind sehr rational und monoton geprägt; es gibt klare Hierarchien, jede Menge Regeln, Prozesse und Zuständigkeiten. Die Unternehmen werden sehr bürokratisch geführt. Es gibt eine klare Ordnung und definierte Strukturen und Niemand weicht ohne Grund von diesen Vorgaben ab. Eigeninitiative und Mitdenken sind ausdrücklich nicht erwünscht. Budgets, Ressourcen, Rollen und Zuständigkeiten sowie die dazugehörigen Kompetenzen sind geregelt. Diese Unternehmen sind durch die fünf »S« wie Sichtbare Ordnung, Sortieren, Standardisieren, Sich verbessern und Sauberhalten geprägt. Typische Vertreter dieser Kultur sind Unternehmen mit Massenproduktion und Fließbandarbeit. Entscheidungen von „oben“ werden grundsätzlich nicht hinterfragt. Es herrscht eine eher unterkühlte Atmosphäre; Emotionen haben in roten Unternehmenskulturen nichts zu suchen. Unternehmen mit einer blauen Unternehmenskultur sind auf langfristiges Wachstum ausgelegt und auf Prozesseffizienz.
Orange Unternehmenskulturen findet man vor allem in stark wachsenden und sehr erfolgreichen Unternehmen, nicht selten aus der Tech-Branche. Dem Erfolg wird alles untergeordnet. Der Zweck heiligt die berühmten Mittel. Pragmatismus und schnelle Erfolge stehen im Mittelpunkt. Hierzu werden Regeln, wenn es welche gibt, regelmäßig gedehnt oder großzügig ausgelegt und individuell interpretiert. In orangenen Kulturen herrscht immer eine gewisse Aufbruchstimmung. Es gibt kein Best Practise, diese werden eher selbst definiert. In Unternehmen dieser Kultur wurde das Motto geboren: „Es gibt keine Probleme, sondern nur Herausforderungen“. Individuelle Leistungen stehen im Vordergrund und werden entsprechend belohnt. Das ungeschriebene Leitbild lautet: „Jeder ist seines Glückes Schmied“. Dies bedeutet aber auch, dass unter den Mitarbeitern wie auch den Führungskräften ein permanenter Wettbewerb besteht. In Unternehmen mit einer orangenen Unternehmenskultur bleibt das Privatleben regelmäßig hinter dem Berufsleben zurück. Orangene Kulturen sind geprägt von einer hohen Kreativität und Experimentierfreude. Die Kommunikation verläuft in der Regel unabhängig von Hierarchie und Strukturen. Das Projektmanagement ist von einer hohen Agilität geprägt.
Grüne Unternehmenskulturen sind von einem hohen Verantwortungsbewusstsein geprägt, gegenüber den Menschen im Unternehmen, Kunden, Lieferanten und Geschäftspartnern sowie der Gesellschaft. Der Glaube an das Gute im Menschen und ein harmonisches Miteinander stehen im Mittelpunkt. Führungskräfte haben in der Regel die Funktion eines Coaches oder Mentors. In grünen Unternehmenskulturen gibt es eine hohe Identifikation mit dem Unternehmen, was zu einer hohen Zufriedenheit und geringen Fluktuation der Mitarbeiter führt. Der Führungsstil ist partnerschaftlich und vom Grundsatz „Dialog statt Anweisungen“ und „Betroffene zu Beteiligten machen“ geprägt. Dies kann allerdings auch dazu führen, dass Unternehmen mit einer grünen Kultur gutgläubig agieren oder konfliktscheu sind und somit Kompromisse suchen, die nicht immer erfolgreich sein müssen. Das Geschäftsmodell ist stark auf Nachhaltigkeit ausgelegt. In der Außendarstellung verhalten sich derartige Unternehmen gesellschaftspolitisch korrekt.
Gelbe Unternehmenskulturen haben die Veränderungen als Selbstverständlichkeit in ihrer DNA verankert. In Unternehmen dieser Kultur lautet das Motto: „Heute ist das Gestern von morgen“ – und dies als Querschnittsfunktion in der gesamten Organisation. Die Zukunft ist allgegenwärtig und die Gegenwart nur dazu da, alle Voraussetzungen hierfür zu schaffen. Der Spruch von Heraklit: „Nichts ist so beständig wie der Wandel“ treibt diese Unternehmen an, die sich vor allem im technologischen Wettbewerb behaupten müssen. Das Geschäftsmodell besteht aus Wissen bzw. synonym aus Daten und deren Monetarisierung. Unternehmen mit einer gelben Kultur haben eine hohe Innovationsrate. Eine Mischung aus Neugierde und Risikobereitschaft sowie Logik und Verstand sind die Grundpfeiler in gelben Unternehmenskulturen. Forscher und Entdecker können sich in diesem Umfeld frei entfalten, in dem Freiheit und Kreativität genauso gefördert werden wie Klarheit und Vernunft im Denken. Gelbe Unternehmenskulturen sind technisch, rational und sachlich geprägt, so dass die Emotionen und nicht selten der Faktor Menschlichkeit auf der Strecke bleiben. Außerdem besteht die Gefahr der Verzettelung, wenn ständig neue Ideen mehr honoriert werden als eine erfolgreiche Umsetzung.
Aqua farbene Unternehmenskulturen vereinen alle anderen Kulturfarben und halten diese in der Balance. Unternehmen dieser Kultur haben verstanden und akzeptiert, dass in globalen Ökosystemen eine hohe Komplexität herrscht und Lösungen ganzheitlich und nachhaltig entwickelt werden müssen. Eines der Ziele besteht darin, resilientere Unternehmen zu schaffen, um nahezu jede Krise überstehen zu können. Hierzu nutzen diese Unternehmen die Gegensätzlichkeiten verschiedener Kulturprägungen und integrieren diese zu einer neuen und modernen Unternehmenskultur, in der auf agile Netzwerke und eine starke Selbstorganisation gesetzt wird, anstatt auf klassische Hierarchien und starre Prozessbeschreibungen. Unterschiede der einzelnen Kulturfarben werden nicht als Trennendes verstanden, sondern der Vorteil im Kontext herausgestellt. Die Loyalität gegenüber dem Team und der Erfolg des Projektes steht über der Identifikation mit dem Unternehmen. Unternehmen mit einer Aqua farbenen Kultur geht es vor allem um eine nachhaltige und sinnstiftende Ausrichtung. Das Geschäftsmodell steht im Kontext, welchen gesellschaftlichen Beitrag das Unternehmen leistet. In besonders stark ausgeprägten Aqua farbenen Unternehmenskulturen findet man nicht selten einen Hang zu Altruismus und Spiritualität vor.
Die Cultur Map Methode wird nicht nur zur Bestandsaufnahme angewendet, sondern auch um Rahmenbedingungen und Maßnahmen für eine gewünschte Unternehmenskultur zu definieren sowie den Change-Prozess zu moderieren. Im Ergebnis wird ein Prozess entwickelt, dem →Business Culture Design.
C wie Customer Centricity
Der Begriff „Customer Centricity“ ist nicht einfach der englische Begriff für Kundenorientierung oder Kundenzentrierung. Er definiert einen grundlegenden Perspektivwechsel und ist eine von mehreren →Unternehmensstrategien. Aus einem produktorientierten Ansatz (Funktionalität) wird ein kundenorientierter Ansatz (Zufriedenheit). Somit ist eine konsequente Kundenzentrierung auch nicht nur ein Vertriebs- und/oder Marketingkonzept oder ein Service, bei dem sich alles um den Kunden dreht. Customer Centricity ist die Essenz aus Unternehmensstrategie, →Unternehmenskultur und Unternehmensphilosophie und somit die DNA des Unternehmens. Sie wird zur Querschnittsfunktion in allen Unternehmensbereichen, so dass an die Menschen in einer Organisation die Fähigkeit abverlangt wird, eine hohe Kundenempathie aufzubauen. Hierzu dienen u. a. die →Buyer Persona Methode oder die →Culture Map Methode. Seinen Kunden zu kennen bedeutet nicht, möglichst viele Daten von ihm in ein CRM einzupflegen. Seinen Kunden zu verstehen bedeutet, seine Bedarfe und Bedürfnisse, Wünsche und Erwartungen, Verhaltensweisen, Probleme und Herausforderungen zu kennen und ihn zu unterstützen, erfolgreich zu sein. Auf der Grundlage können die Touchpoints systematisiert und die Painpoints entlang der →Customer Journey identifiziert werden. Infolgedessen beginnt beim →Customer Centric Approach die →Wertschöpfungskette beim Kunden. Aus dem produktorientierten Push-Ansatz wird ein kundenorientierter Pull-Ansatz. Die Erfüllung der Kundenerwartungen, -bedürfnisse und -wünsche als Indikator für Kundenzufriedenheit ist die Kernkompetenz im Geschäftsmodell von Unternehmen. Customer Centricity kann auch als →USP definiert werden, wenn die Customer Journey und User Experience einzigartig sind. Die Unternehmensstrategie als Grundlage sowie sämtliche operative Maßnahmen wie z. B. “Loyalty-Programs” als Implementierung sind konsequent auf eine nachhaltige Kundenbeziehung ausgerichtet. Das Geschäftsmodell ist von gegenseitiger Wertschätzung, Verlässlichkeit, Loyalität und Empathie gekennzeichnet.
Eine Geschäftsbeziehung ist keine Einbahnstraße und ein Kunde nicht nur ein Käufer. Zufriedene Kunden werden zu einflussreichen Influencern – auch im B2B-Bereich. Das Kundenfeedback z. B. in Form von Bewertungen in den sozialen Netzwerken triggert ggf. potenzielle Neukunden. Die Meinung und Glaubwürdigkeit von Kunden in Foren und Communities steht über der subjektiven Werbung von Unternehmen. Kunden können somit den Erfolg oder Misserfolg von Produkten oder ganzen Unternehmen (mit) beeinflussen. Diese Entwicklung wird als →Customer Empowerment bezeichnet und wird in den nächsten Jahren an Bedeutung gewinnen. Nicht ohne Grund gehen immer mehr Unternehmen dazu über, Kunden über →Open Innovation in den eigenen Innovationsprozess mit einzubeziehen.
Auswirkungen der Customer Centricity im Online-Marketing und/oder im →E-Commerce zeigen sich z. B. im User Centered Design, einer kundenspezifischen Usability, dem Inbound Marketing sowie einer Multichannel-Kommunikation. Hierbei geht es nicht nur um Leadgenerierung und Neukundengewinnung, sondern um langfristige Kundenbeziehungen. Ein wichtiger Indikator für nachhaltige Kundenzufriedenheit zeigt sich regelmäßig beim Post-Sale. Customer Centricity ist keine Frage der Unternehmensgröße und/oder des Bekanntheitsgrades oder Markenimage.
C wie Customer Lifetime Value (CLV)
Der Customer Lifetime Value ist eine wichtige Kennzahl der Kundenbindung. Der Begriff setzt sich aus zwei Metriken zusammen: dem aktuellen Kundenwert sowie dem potenziellen Wert, den ein Kunde für ein Unternehmen haben kann. Der CLV beschreibt infolgedessen den Deckungsbetrag, den ein Kunde während der Kundenbeziehung realisiert. Das Ziel einer auf dem Customer Lifetime Value basierenden Vertriebs- und Marketingstrategie ist es, durch eine umfassende Kundenbetreuung nicht nur eine langfristige Kundenbeziehung aufzubauen, sondern eine echte Kundenloyalität zu erzeugen. Bekanntlich ist es günstiger, bestehende Kundenbeziehungen zu halten und auszubauen, als neue zu gewinnen. Durch die Verschiebung des Fokus – weg von der bedingungslosen Neukundenakquise hin zu einer nachhaltigen Customer Experience der Bestandskunden – gewinnen Kundenwertanalysen eine zunehmende Bedeutung für jedes Unternehmen. Im operativen Tagesgeschäft im Vertrieb wird häufig außer Acht gelassen, dass eine Kundenbetreuung rentabel bleiben muss. Gibt ein Unternehmen für einen potenziellen Neukunden oder Bestandskunden mehr aus, als dieser ihm zukünftig einbringen wird, lohnen sich diese Ausgaben nicht. Der Customer Lifetime Value unterstützt bei der Planung des Budgets und der Ressourcen, indem er darstellt, welchen Wert eine Kundenbeziehung für das Unternehmen derzeit hat und in Zukunft haben wird. Je nachdem, welcher Wert ermittelt wird, können die Budgets gezielt erhöht, reduziert oder gleich bleiben. Der CLV zeigt darüber hinaus an, ob die Kundenbindungsstrategie eines Unternehmens erfolgreich und nachhaltig ist.
Der Customer Lifetime Value wird mit verschiedenen Methoden berechnet und baut auf wichtigen Kennzahlen auf wie z. B. dem durchschnittlichen Auftragswert (Umsatz) und/oder durchschnittlichen Deckungsbeitrag. Hinzu kommen die Anzahl der wiederholenden Umsätze pro Jahr. Dem werden die Akquisitionskosten für Neukunden sowie die Betreuungskosten für Bestandskunden gegenüber gestellt. Hierzu gehören direkte und indirekte Kosten wie z. B. Außendienstbetreuung, Rabatte und Aktionen sowie Marketingunterstützung, technischer Support oder Kulanz bei Reklamationen usw. Im dritten Schritt werden die Anzahl der Kunden zu einem bestimmten Endzeitpunkt sowie die Anzahl der Kunden, die in dem Zeitfenster neu dazugewonnen wurden und die Anzahl der Kunden, die zum Beginn des Zeitfensters bereits vorhanden waren, ermittelt. Das Zeitfenster beträgt in der Regel ein Jahr (in der Regel ein Geschäftsjahr).
C wie Customer Profiling
Der Begriff Customer Profiling beschreibt die Erstellung, Verwendung und permanente Aktualisierung von Kundenprofilen, die aus generierten Kundendaten (Big Data, Data Lake, Smart Data) stammen. Diese werden identifiziert, analysiert und bewertet (Scoring), um eine optimale Kundenansprache in Vertrieb und Marketing sowie Potenzialausschöpfung (virtuelle Warenkörbe) zu erzielen. Die Grundlage im Customer Profiling bieten sieben Faktoren:
- Statische Faktoren wie z. B. sozioökonomische Faktoren (z. B. Bildung, Einkommen oder sozialer Status) und demografische Faktoren (z. B. Alter oder Geschlecht)
- Dynamische Faktoren wie psychografische Faktoren (z. B. Handlungsmotive oder Life-Style), behavioristische Faktoren (z. B. Handlungsmuster oder Art der Beschaffung von Informationen), geografische Faktoren (z. B. Bewegungsprofile oder Bewegungsradien), kontextuelle Faktoren (z. B. persönliches Umfeld oder Emotionen) und technologische Faktoren (z. B. Technikaffinität oder Techniknutzung).
C wie Cyber-physische Systeme (CPS)
Der zentrale Erfolgsfaktor zur Verbindung der digitalen und physischen Welt in der Zukunft der maschinellen Arbeit (Industrie 4.0) liegt in den so genannten cyber-physischen Systemen (CPS). Diese bezeichnen den Verbund von informations- und softwaretechnischen Komponenten mit mechanischen und elektronischen Komponenten, die über eine Dateninfrastruktur (in der Regel dem Internet) kommunizieren. Dabei werden zum einen Daten ausgetauscht und zum anderen Steuerung und Kontrolle über eine Infrastruktur behalten. Das Besondere ist nicht der Datentransfer an sich, sondern die Geschwindigkeit, mit der diese Aktionen erfolgen. CPS werden eingesetzt, um in Echtzeit mobile und bewegliche Einrichtungen, Geräte und Maschinen (darunter auch Roboter), eingebettete Systeme und vernetzte Gegenstände (Internet of Things) zu steuern. Ein cyber-physisches System entsteht aus der Vernetzung eingebetteter Systeme durch drahtgebundene oder drahtlose Kommunikationsnetze und ist durch einen hohen Grad an Komplexität gekennzeichnet. Fast alle kritischen und systemrelevanten Infrastrukturen enthalten cyber-physische Systeme: Stromerzeugung und -verteilung, Trinkwassererzeugung, Lüftungssysteme in Tunneln, U-Bahnen, Zügen und Flugzeugen, militärische Systemvernetzungssysteme sowie Infrastruktursysteme für Kommunikation und Kultur wie z. B. große Veranstaltungsarenen, Verkehrssteuerungs- und Verkehrslogistiksysteme. Hinzu kommen vernetzte Sicherheits- sowie Fahrerassistenzsysteme für Automobile, industrielle Prozesssteuerungs- und Automationssysteme und medizinische Geräte, bei denen eine hohe Zuverlässigkeit verlangt wird. Deshalb sind resiliente Systemarchitekturen notwendig, die trotz unvorhergesehener Auswirkungen von gegenseitigen Abhängigkeiten das gewünschte Systemverhalten sicherstellen.
Cyber-physische Systeme sind extrem anpassungs- und wandlungsfähig und tragen zur Effizienzsteigerung bei. Durch die Vernetzung und die beliebige An- und Einordnung von Daten, Informationen und Diensten können verschiedene Potenziale zukünftig schneller erkannt und effizienter genutzt werden. Ob bei der Datengewinnung und -verarbeitung oder der automatischen Optimierung von Systemen und Personalkapazitäten: Prozesse von cyber-physischen Systemen laufen weitgehend autonom und automatisiert, ohne dass der Mensch eingreifen muss. Diese erfüllen oftmals nur noch Kontroll- und Steuerungsfunktionen. Auch die Arbeitssicherheit, die Geschwindigkeit von Abläufen und die Effizienz von Prozessen lässt sich mit den Cyber-physischen Systemen steigern.
C wie Cynefin-Modell
Das Cynefin-Modell (oder auch -Framework oder -Matrix) wurde 1999 im Kontext von strategischer Organisationsentwicklung vom ehemaligen IBM-Mitarbeiter und Berater Dave Snowden entwickelt. Das walisische Wort “Cynefin” wird sinngemäß mit „Lebensraum” oder „Platz“ übersetzt, obwohl diese Übersetzung nicht seine volle Bedeutung vermitteln kann. Cynefin steht metaphorisch für die Einsicht, dass jedes Individuum und jedes System das Ergebnis seiner eigenen Entwicklungsgeschichte ist bzw. mehrere Vergangenheiten hat. Snowden wählte diesen Begriff, um die evolutionäre Natur komplexer Systeme zu veranschaulichen, inklusive der ihr innewohnenden Unsicherheit.
Das Cynefin-Modell unterscheidet fünf Domänen und schlägt kontextbezogene Lösungsstrategien vor:
- einfache Systeme (Clear, bisher Simple oder Obvious): geringe Anzahl von Informationen und Variablen, die in einer eindeutigen Ursache-Wirkungs-Beziehung stehen und für alle offensichtlich sind. Dieses System kann durch feste Regeln, Checklisten und klare Prozesse sehr einfach geführt werden (Strategie: S-C-R = Sense, Categorise, Respond). Informationen können zuverlässig weitergegeben werden (best practices).
- komplizierte Systeme (Knowable, Complicated): deutliche höhere Anzahl von Informationen und Variablen, die über eine feste Ordnung und lineare Kausalität immer noch relativ einfach geführt werden können (Strategie: S-A-R = Sense, Analyze, Respond). Die Ursache-Wirkungs-Beziehung ist nicht sofort erkennbar oder eindeutig und kann nur im Nachhinein und nicht selten nur durch eine genaue Analyse bewertet werden, für die eine hohe Expertise notwendig ist. Um komplizierte Systeme führen zu können, braucht man Experten (good practices).
- komplexe Systeme (Complex): große Anzahl von Einflussfaktoren, die in wechselseitiger Abhängigkeit stehen und eskalierende oder stabilisierende Rückkopplungen verursachen. Es existieren keine linearen Ursache-Wirkungs-Beziehungen, was die Vorhersage der richtigen Strategie erschwert. Daher empfehlen sich zur Führung komplexer Systeme emergente Strategien (emergent practices) bzw. eine “exaptive discovery”. Durch zeitlich begrenztes Ausprobieren kann man Muster erkennen und die Vorgehensweise situativ anpassen (Strategie: P-S-R = Probe, Sense, Respond).
- chaotische Systeme (Chaotic): durch eine unüberschaubare Anzahl von Einflussfaktoren, die in wechselseitiger Abhängigkeit stehen und sich extrem schnell verändern können, regiert das Chaos. Es gibt auf der Systemebene keine Beziehung zwischen Ursache und Wirkung. Die einzige valide Strategie in chaotischen „Systemen“ (besser Umgebungen) ist Neues zu probieren, schnell und entschlossen zu handeln um das System zu stabilisieren (novel practices) und somit in komplexe Systeme zu überführen (Strategie: A-S-R: Act, Sense, Respond).
- gestörte Systeme (Disorder): beschreiben den Zustand des Nicht-Wissens, welche Art von Kausalität besteht. Diese Systeme stehen im Zentrum der Cynefin-Matrix und liegen vor, wenn über den Zustand des Systems (einfach, kompliziert, komplex, chaotisch) keine Einigkeit unter den Entscheidern besteht und demzufolge unklar ist, welche Strategie angemessen ist. In der Regel passen die angewendeten Strategien nicht auf das vorhandene Umfeld. Nicht selten führt dies dazu, dass die Beteiligten sich in ihre eigene Komfortzone zurückziehen.
Die Arbeit von Snowden und seinem Team begann zunächst in den Bereichen Wissensmanagement, kultureller Wandel und Gruppendynamik. Sie befassten sich später auch mit einigen kritischen Unternehmensprozessen, wie z. B. Produktentwicklung, Markterschließung und Branding. In jüngerer Zeit umfasste ihre Tätigkeit auch Fragen der Unternehmensstrategie und der nationalen Sicherheit.
Während einfache und komplizierte Systeme durch Ordnung und lineare Kausalität gekennzeichnet sind, fehlt es dagegen in komplexen und chaotischen Systemen an einer grundlegenden Ordnung. Das daraus entwickelte Framework stützt sich auf Forschungen aus der Theorie komplexer adaptiver Systeme, der Kognitionswissenschaft und Anthropologie sowie evolutionären Psychologie und bedient sich hierbei narrativer Muster. Das Modell untersucht die Beziehung zwischen Mensch, Erfahrung und Kontext und eröffnet neue Wege für Kommunikation, Entscheidungsfindung, Richtlinienkompetenz und Konfliktmanagement in einem komplexen sozialen Umfeld. Infolgedessen muss am Anfang die Frage geklärt werden, in welchem Umfeld sich ein Unternehmen, eine Organisation, ein Team oder auch ein Projekt befindet. Man nennt dies einen “common sense” und beantwortet die Frage, ob ein geordnetes Umfeld (einfach, kompliziert) vorliegt oder ein ungeordnetes (komplex, chaotisch) bzw. im worst case ein System schon unter einer Störung leidet. Erst danach können Strukturen festgelegt, Entscheidungsprozesse definiert, Zusammenarbeit organisiert und Führungsrollen ausgestaltet werden. Die Cynefin-Matrix ist als Plattform geeignet, um Transparenz und ein gemeinsames Verständnis sowie ein geeignetes Vorgehen herzustellen. Gerade in Zeiten dynamischer Veränderungen deckt das Cynefin-Modell auf, warum funktionale, auf starren Regelwerken und Hierarchien basierende Organisationen in komplexen Umgebungen ausgedient haben. Diese Erkenntnis gilt sowohl für allgemeine Prozesse der Unternehmenssteuerung wie Strategieentwicklung, als auch für Organisationsentwicklung oder Projektmanagement. Emergente und adaptive Strategien erfordern kleine und selbstorganisierte Teams, dezentrale Entscheidungen und kurze Iterationszyklen. Das Cynefin-Modell erklärt darüber hinaus die Notwendigkeit einer kontextbezogenen Führung. Der Kontext leitet sich hierbei nicht aus einer konkreten Situation ab, sondern dem allgemeinen Umfeld. Während in herkömmlichen Organisationen weiterhin auf gewohnte “Management Best Practices” wie Lenkungsausschüsse, Arbeitskreise, Jour Fixes usw. gesetzt wird, braucht man in komplexen Umgebungen ein völlig neues Führungsverständnis (Servant Leadership). Dieses Verständnis ist geprägt von der Einsicht “nichts zu wissen”, Kommunikation auf Augenhöhe, aktivem Zuhören und der Bereitschaft, Mitarbeiter darin zu befähigen, mehr Verantwortung zu übernehmen und eigene Entscheidungen zu treffen.
Des Weiteren wird das Cynefin-Modell auch angewendet, um Innovationen erfolgreich zu entwickeln, zu implementieren und zu vermarkten. Längst sind sich Innovationsforscher einig, dass echte Innovationen im Grenzbereich zum Chaos entstehen. Gleiches bestätigen im Übrigen auch die Hirnforscher. Wenn radikale oder disruptive Innovationen mit herkömmlichen Methoden wie Business Cases, Zeit-, Budget- und Projektpläne, Analysen und Risikobewertungen umgesetzt werden sollen, sind sie zum Scheitern verurteilt.
CaaS (Containers-as-a-Service)
C wie CaaS (Containers-as-a-Service)
CaaS ist ein Akronym für Containers-as-a-Service und beschreibt ein Geschäftsmodell, bei dem Anbieter von →Cloud-Computing-Plattformen komplette Containerumgebungen inklusive Dienstleistungen zur Verfügung stellen. Zu den containerbasierten Virtualisierungen sowie skalierbaren Dienstleistungen und Services gehören u. a. Orchestrierungstools (auch Orchestrator genannt), eine Reihe von Entwickler-Tools und APIs (Application Programming Interfaces bedeutet Programmierschnittstellen), einen Image-Katalog (die so genannte Registry), eine Cluster-Management-Software sowie die zugrunde liegenden Infrastruktur-Ressourcen. Dabei werden einzelne Anwendungen inklusive aller Abhängigkeiten wie z. B. Bibliotheken und Konfigurationsdateien als gekapselte Instanzen ausgeführt. Dies ermöglicht den Parallelbetrieb mehrerer Anwendungen mit unterschiedlichen Anforderungen auf ein und demselben Betriebssystem und/oder ein Deployment über unterschiedliche Systeme hinweg. Als Containerdienst bezeichnet man den Service eines Anbieters, Software in so genannten Anwendungscontainern zu entwickeln, zu testen, auszuführen oder über IT-Infrastrukturen hinweg zu verteilen. Somit können Anwender Containerdienste in Anspruch nehmen, ohne die dafür benötigte Infrastruktur selbst aufbringen zu müssen. Im Gegensatz zum PaaS-Modell, bei dem sich Software-Entwickler auf die vom Anbieter zur Verfügung gestellten Technologien wie Programmiersprachen oder Frameworks festlegen müssen, bietet Container-as-a-Service dagegen eine vergleichsweise freie Programmierplattform, auf der sich in Containern gekapselte Anwendungen unabhängig von ihren technologischen Anforderungen und Voraussetzungen über heterogene IT-Infrastrukturen hinweg skalieren lassen. Die Bezeichnung ist noch relativ jung und orientiert sich an etablierten →Cloud-Service-Modellen wie →Infrastructure-as-a-Service (IaaS), →Platform-as-a-Service (PaaS) oder →Software-as-a-Service (SaaS). Caas kann in dieser klassischen Aufteilung zwischen IaaS und PaaS eingeordnet werden. Von diesen etablierten Service-Modellen hebt sich Container-as-a-Service jedoch durch einen grundsätzlich anderen Virtualisierungsansatz ab: die Container-Technologie. Die Abrechnung erfolgt nutzungsbezogen im Mietmodell.
Canonical Tag
C wie Canonical Tag
Ein Canonical Tag ist in der Regel im Header (Kopfzeile) einer Webseite als Quellcode hinterlegt. Dieser wird eingesetzt, um Webseiten mit doppeltem Inhalt (Duplicate Content) richtig auszuzeichnen – also einen Hinweis auf die Originalquelle zu setzen. Diese Ursprungsseite wird auch als die „kanonische“ Seite bezeichnet. Hierzu wird der Quelltext mit dem Attribut rel=“canonical“ gekennzeichnet. So verlinkt man von einer oder mehreren Kopien einer Webseite auf das Original und vermeidet somit, dass man von Suchmaschinen wie z. B. Google „abgestraft“ wird. Nicht im rechtlichen Sinn, sondern durch ein schlechteres Ranking. Der Canonical Tag kommt immer dann zur Anwendung, wenn Inhalte mehrfach verwendet werden „müssen“ z. B. in verschiedenen Landingpages, Blogs, in Shopsystemen, digitalen Katalogen oder Plattformen usw. Scannt ein Crawler eine Webseite und findet darauf einen Canonical Tag, erkennt der Bot, dass die verlinkte Seite das „eigentliche“ Original ist, die „kopierten“ Webseiten also im Hinblick auf Duplicate Content ignoriert werden können. Wichtig ist hierbei, dass innerhalb dieses Quellcodes keine Meta-Tags wie „nofollow“, „disallow“ oder „noindex“ vergeben werden. Außerdem werden durch Suchmaschinen Eigenschaften wie z. B. PageRank auf das Original übertragen. Somit ist der Canoncial Tag ein wichtiges Werkzeug für die OnPage Optimierung und zur Vermeidung von Fehlern in der Bewertung von Inhalten.
CAPTCHA
C wie CAPTCHA
CAPTCHA ist ein Akronym für Completely Automated Public Turing test to tell Computers and Humans Apart und beschreibt ein Sicherheitsmechanismus zur Unterscheidung von Mensch und Maschine. Es handelt sich um einen so genannten Challenge-Response-Test, bei denen der Nutzer eine einfache Aufgabe (Challenge) lösen muss und das Ergebnis (Response) zurückschickt. Sinnvollerweise sind die gestellten Aufgaben für Menschen einfach zu lösen, hingegen für Computer sehr schwierig oder unlösbar. Neben einfachen Rechenaufgaben, einem Code oder einer einfachen Frage, die korrekt eingegeben werden müssen, werden auch Bilder verwendet oder mittlerweile Audio-Captchas oder Video-Captchas. Somit soll herausgefunden werden, ob die Interaktion mit einem Mensch oder einer Maschine (Computer, Roboter, Bot) stattfindet. Captchas schützen die Ressourcen und dem Schutz des Anbieters oder Betreibers und nicht, wie vielfach angenommen wird, dem Schutz des Benutzers oder dessen Daten. Im Unterschied zum klassischen →Turing-Test, bei dem Menschen die Frage klären, ob sie mit einem Mensch oder einer Maschine interagieren, dienen Captchas dazu, diese Frage durch eine Maschine beantworten zu lassen. Captcha müssen schnell erweitert oder ständig umgeschrieben werden, da man einem Spambot die Logik antrainieren kann. Durch die zunehmende technische Eskalation der immer intelligenter werdenden Algorithmen stellen Captchas perspektivisch das Problem dar, dass diese auch für den Menschen immer schwieriger zu lösen sein werden. Gelegentlich werden Verfahren zur Unterscheidung von Menschen und Maschinen oder Robotern auch als HIP (engl. Human Interaction Proof) bezeichnet.
CAS (Computer Aided Selling)
C wie CAS (Computer Aided Selling)
CAS ist ein Akronym für Computer Aided Selling und beschreibt computergestützte Informations- und Kommunikationssysteme für den Vertrieb (Innen- und Außendienst) sowie Instrumente und Methoden zur Vertriebsunterstützung und -steuerung. CAS werden eingesetzt, um Vertriebsprozesse effizienter und systematisierter zu gestalten und Verkaufsabschlüsse zu erhöhen. Hierzu zählen Hard- und Software sowie die Übertragung der gewonnenen Informationen zum Innen- und/oder Außendienst. Sie dienen u. a. zur Vorbereitung und Nachbereitung von Kundengesprächen, zur Unterstützung bei Verkaufsgesprächen, der Verwaltung von Angeboten, Aufträgen und weiteren Kundeninformationen, der Kommunikation mit dem Kunden sowie internen Fachabteilungen sowie der Steuerung, Tätigkeits- und Ergebniskontrolle.
Computer Aided Selling wurde erstmals 1993 im Zusammenhang mit Database-Marketing erwähnt und ist heute besser bekannt unter dem Begriff →Customer Relationship Management (CRM) oder gelegentlich auch unter Sales Force Automation (SFA).
Chatbot
C wie Chatbot
Der Begriff Chatbot setzt sich aus dem Verb „to Chat“ (sich unterhalten) und „Robot“ (Roboter) zusammen und ist vereinfacht ausgedrückt ein Roboter, mit dem man sich unterhalten kann. Das Ökosystem aus Technologie und Features dahinter ist allerdings deutlich komplizierter und das Thema Chatbot sehr vielschichtig und komplex. Das technische Dialogsystem ermöglicht den Dialog zwischen Mensch und Maschine und bündelt alle Informationen in einem einzigen Kanal, um die Interaktion mit dem User zu bearbeiten. Die Konversation erfolgt über gesprochenen oder geschriebenen Text. Ein Chatbot bietet dabei immer eine Option der Spracheingabe und -ausgabe, in der Regel mittels eines so genannten Chat-Widgets. Leider ist der Begriff Chatbot in den letzten Jahren zu einem Buzzword in der digitalen Welt verkommen, weil sich viele unspezifische Angebote mit diesem Begriff schmücken und/oder unterschiedliche Varianten synonym verwendet werden. Dabei können bereits kleine technische Änderungen einen großen Unterschied bewirken.
In der Regel werden Chatbots auch als virtueller Assistent bezeichnet und in Verbindung mit einem Avatar auf einer Website oder Messaging-Plattform angeboten, um dort auf Anfragen von Nutzern z. B. zu Produkten, Leistungen oder Services zu reagieren. Ein Chatbot funktioniert entweder auf der Basis von definierten Regeln (auch regelbasiert genannt) oder auf Basis künstlicher Intelligenz. Regelbasierte Chatbots greifen auf ein Regelwerk (auch Expertensystem) von definierten Fragen und Antworten zurück. Daher ist dieser digitale Assistent (auch Klick-Bots genannt) nur bei einfachen und standardisierten Prozessen empfehlenswert.
Intelligente Chatbots basieren meist auf künstlicher Intelligenz und Natural Language Processing und können die Daten aus existierenden Dialogen nutzen, um sich weiter zu entwickeln. Hierbei erkennt das System auch hinter langen oder komplexen Informationen die semantischen Zusammenhänge und nutzt NLP, um die Intention des Nutzers und den Inhalt der Frage zu verstehen. Dadurch können diese Chatbots Verknüpfungen erstellen und somit auch anspruchsvolle und komplexe Dialoge führen. NLP dient der maschinellen Verarbeitung natürlicher Sprache. Das Ziel ist eine intelligente Konversation, wie von einem Menschen geführt, durch künstliche Intelligenz zu imitieren. Hierfür nutzt die KI Methoden aus dem Deep-Learning. Die zwei wichtigsten KI-Prinzipien sind das Reassuring und das Dreaming. Mit Reassuring sind intelligente Rückfragen gemeint. Ist sich ein intelligentes Chatbot nicht sicher, welches Themenfeld mit der Frage gemeint ist, stellt es dem Nutzer eine Rückfrage. Je nach Antwort schärft die KI das Themenfeld und lernt somit mit jeder Anfrage dazu. Somit kann ein intelligentes Chatbot auch Antworten auf vorher nicht gestellte Fragen geben oder eine falsche Fragestellung korrigieren.
Anwendungsspezifische Chatbots mischen regelbasierte und intelligente Dialogsysteme und werten diese durch grafische Oberflächen auf. Mit ihnen wird die Usability und User Experience verbessert.
Churn Prediction Analysis
C wie Churn Prediction Analysis
Neukundengewinnung ist für Unternehmen je nach Branche und Sortiment mit einem Faktor 2 bis 4 mal teurer als Bestandskundenpflege. Die Abwanderung von Kunden ist deshalb für Unternehmen in doppelter Hinsicht mit finanziellen Verlusten verbunden (Umsatz und Gewinn sowie Mehraufwand). Je höher die Zahl der Kunden und somit die Churn Rate ist, die einem Unternehmen den Rücken kehren, umso spürbarer sind die wirtschaftlichen Auswirkungen. Churn Prediction (Abwanderungsvorhersage) ist eine Vorausanalyse und untersucht, bei welchen Kunden das Risiko einer Abwanderung besteht. Dadurch sollen rechtzeitig Indikatoren geliefert werden, um durch gezielte Maßnahmen einer Abwanderung entgegen zu wirken. Diese Analyse ist ein zentrales Element in jeder Vertriebs- und CRM-Strategie. Insbesondere für Geschäftsmodelle, bei denen Abonnements oder Verträge abgeschlossen werden wie z. B. im →Software as a Service (SaaS) Bereich, der Energieversorgung, im Banken- und Versicherungswesen, in der Telekommunikation oder Streamingdienste usw. ist die Vermeidung von Kundenfluktuation essenziell. Churn Prediction Analysis nutzt Kundendaten und Simulationen und basiert auf den Algorithmen maschinellen Lernens und Künstlicher Intelligenz. Somit können effektive und effiziente Voraussagen über mögliche Abwanderungen getroffen und durch eine pro-aktive Churn Management Strategie vorher Maßnahmen ergriffen werden. Dies beugt nicht nur der Fluktuation von Kunden vor, sondern spart auch Budget für die Rückgewinnung ehemaliger Kunden.
Herzstück der Churn Prediction Analysis sind die Ursachen für mögliche Abwanderungsgedanken. Hierbei wird differenziert, ob es sich um Einzelkunden oder Kundensegmente, Kunden eines speziellen Sortimentes oder einer Region und dgl. handelt. Parallel wird das Wettbewerbsverhalten analysiert, um Kausalitäten herzustellen. Alle Frühindikatoren möglicher Kundenabwanderungen dienen der Churn Prediction Modell Interpretation. Für diese können so genannte Shapley Values abgeleitet werden, so dass Modelle besser beschrieben und einfacher erklärt werden. Reine Daten liefern nur die Grundlage; erst die Bewertung und Interpretation lassen generelle Ursachen für Fluktuation oder individuelle Gründe für eine Kündigung erkennen. Um einen Churn Prediction Score zu erstellen, braucht man spezifische Kundendaten und insbesondere Verhaltensweisen, die in der Regel in einem herkömmlichen CRM nicht gepflegt werden. Neben den demographischen Daten gehören hierzu die Nutzungsdaten, Verhaltensdaten, Transaktionshistorie, Interaktion mit dem Kundenservice, Außen- oder Innendienst.
Clean Code
C wie Clean Code
Clean Code ist ein Begriff aus der Softwareentwicklung und beschreibt eine logische, verständliche, nachvollziehbare und disziplinierte Implementierung eines Codes. Das Ziel besteht darin, die Software effizient und effektiv zu entwickeln und den Code dabei so zu gestalten, dass er leicht zu lesen, zu ändern, zu erweitern und zu warten ist. Ein Clean Code ist in der Praxis nicht selbstverständlich, denn auch „unsaubere“ Codes können funktionieren. Allerdings führen diese vermehrt zu Fehlern bei Adaptionen oder Problemen bei Erweiterungen. Um dies zu vermeiden wird zunächst eine Analyse durchgeführt (Clean Analysis) und anschließend das Design aufgesetzt (Clean Design). Auch wenn der Aufwand zur Implementierung eines Clean Code initial höher ist, amortisiert sich dieser über den Lebenszyklus der Software. Infolgedessen ist ein Clean Code nicht nur technologisch nachhaltig, sondern auch ökonomisch sinnvoll.
Closed Innovation
C wie Closed Innovation
Closed Innovation unterscheidet sich von →Open Innovation durch die Art und Weise, wie und wo Innovationen entstehen. Während Closed Innovationen in einem in sich geschlossenen Unternehmensumfeld entwickelt werden, beziehen Open Innovationen externes Wissen und Know-how in das Innovationsmanagement mit ein. Auch wenn die Entwicklung zur offenen Variante tendiert, gibt es gute Gründe für geschlossene Innovationen. Eine der wichtigsten ist der Komplexitätsgrad von Innovationen. Ist dieser besonders hoch, bieten sich Closed Innovation an. Diese stellen nicht nur den Zugriff auf das Know-how sicher, sondern auch auf die Prozesshoheit. Wenn eingesetzte Technologien eng miteinander verknüpft sind, bergen Open Innovation gewisse Risiken, so dass auch in diesem Fall der Closed Innovation der Vorzug gegeben wird. Einflüsse von außen könnten nicht nur dem Innovationsprozess schaden, sondern ggf. auch der aktuellen Produktpalette. Ein Paradebeispiel für Closed Innovation ist Apple mit seinem hochintegrierten und aufeinander abgestimmten Ökosystem. Closed Innovation ist auch dann die bevorzugte Variante, wenn eine Innovation disruptiven Charakter hat und grundlegende technologische Verbesserungen hervorbringt, durch die ein Unternehmen einen USP erzielt und eine echte Differenzierung und einen Wettbewerbsvorteil schafft. Weitere Gründe für Closed Innovation sind zum einen Branchen mit hoher Wettbewerbsdichte und einem intensiven Wettbewerb. Und zum anderen, wenn Innovationskraft, Know-how und Lösungskompetenz im Unternehmen vorhanden sind, so dass das Hinzuziehen externer Kompetenzen nicht notwendig ist. Von der Ideengenerierung über die Entwicklung bis hin zur Vermarktung erfolgt der Innovationsprozess ausschließlich im Unternehmen. Innovationen werden nur innerhalb klar definierter Grenzen des Unternehmens entwickelt. Wissen und Know-how, Technologie und Prozesse bleiben unter Kontrolle des innovierenden Unternehmens. Um geschlossene Innovationen erfolgreich umsetzen zu können, müssen Unternehmen nicht nur höchstqualifizierte Mitarbeiter beschäftigen und einen hochprofessionellen Innovationsprozess aufsetzen, sondern das eigene geistige Eigentum entsprechend schützen. Closed Innovation und Open Innovation können in einigen Fällen auch komplementären Charakter haben.
Der Begriff Closed Innovation geht auf Henry Chesbrough, Professor und Executive Director am Center for Open Innovation an der UC Berkeley zurück, der diesen Begriff erstmals 2003 in seinem Buch „Open Innovation: The new imperative for creation and profiting from technology“ erwähnte. Die Wurzeln der geschlossenen Innovation gehen allerdings auf den Anfang des 20. Jahrhunderts zurück, als z. B. Universitäten noch nicht an der kommerziellen Verwertung von Wissenschaft beteiligt waren. Die gesamte Nachkriegszeit bis in die 1990-er Jahre war von geschlossenen Innovationen geprägt und gilt als die Ära der internen Forschung und Entwicklung. Der Aufbau interner F&E-Ressourcen wurde als einer der entscheidenden Wettbewerbsvorteile gesehen. Aus dieser Zeit stammt auch der Begriff „Not Invented Here“-Syndrom, das die Geisteshaltung von Unternehmensführungen ganz gut beschreibt.
Cloud Computing
C wie Cloud Computing
Cloud Computing, oft auch nur als „die Cloud“ bezeichnet, beschreibt ein Modell, bei dem bei Bedarf zeitnah geteilte Computerressourcen als Dienstleistung bereitgestellt und nach Nutzung abgerechnet werden. Diese Bereitstellung erfolgt in Form von Rechenzentren, Servern, Datenspeicher oder Applikationen, in der Regel über das Internet und geräteunabhängig. Das Angebot sowie Art und Umfang der Nutzung dieser Computerressourcen ist definiert und erfolgt in der Regel über eine Programmierschnittstelle (API) bzw. für Anwender über eine Website oder App. Infolgedessen werden die Daten nicht lokal auf dem eigenen Computer oder Server abgelegt, sondern befinden sich an einem beliebigen anderen Ort, der oft mit einer Datenwolke („Cloud“) illustriert wird. Die Vorteile sind flexible, skalierbare Ressourcen, die schnell und einfach an den Bedarf angepasst werden können sowie ein nutzungsabhängiger Service, bei dem nur die tatsächlich genutzten Ressourcen bezahlt werden.
Beim Cloud Computing wird zwischen verschiedenen Konzepten unterschieden:
- bei „Infrastructure-as-a-Service“ (IaaS) können Nutzer über das Internet direkt auf einzelne virtuelle Ressourcen zugreifen wie z. B. Netzwerkkomponenten, Server oder Speicher.
- „Software-as-a-Service“ (SaaS) erlaubt es Nutzern, Software-Anwendungen über das Internet zu nutzen, ohne diese auf dem eigenen Computer zu installieren.
- „Platform-as-a-Service“ (PaaS) ist vor allem für Entwickler interessant, die gemeinsam Programme über das Internet entwickeln und anbieten wollen.
Cobots
C wie Cobots
Kollaborative Roboter oder Cobots (Abkürzung des englischen Begriffs „collaborative robot“) bekommen eine immer größere Bedeutung. Herkömmliche Industrieroboter werden in immer mehr Bereichen der Industrie durch kollaborative Roboter ersetzt oder erweitert. Cobots kommen in Zusammenarbeit mit Menschen im Produktionsprozess zum Einsatz und sind dabei nicht mehr wie der typische industrielle Roboter durch Schutzeinrichtungen von ihren menschlichen Kollegen getrennt. Sie sind im Vergleich zu traditionellen Industrierobotern kompakter, flexibler einsetzbar und leichter zu programmieren. Dabei ersetzen Cobots nicht die Arbeitsplätze des Menschen, sondern ergänzen diese. Die Unternehmensberatung Boston Consulting Group geht davon aus, dass der Einsatz von Cobots die Produktivität pro Mitarbeiter zukünftig um bis zu 30 Prozent steigern wird.
Co-Creation
C wie Co-Creation
Co-creation ist eine Innovationsmethode, bei der Unternehmen Externe wie z. B. Lieferanten, Kunden, Experten aus Forschung und Entwicklung oder Partnerunternehmen durch Kollaboration in den Entwicklungsprozess von Produkt-, Prozess-, Service-, Vertriebs- oder Geschäftsmodellinnovationen mit einbeziehen. Co-creation und Open Innovation werden häufig synonym verwendet, obwohl Open Innovation noch einen Schritt weiter geht und die Öffnung des Innovationsprozesses und -managements beschreibt.
Cognitive Computing
C wie Cognitive Computing
Individualisierung und Personalisierung ist einer der Megatrends. Im Zuge dessen passen sich Maschinen immer mehr dem Menschen an. Cognitive Computing verfolgt den Ansatz, dass digitale Technologien wie das menschliche Gehirn funktionieren. Kognitive Systeme sind, im Gegensatz zu heutigen Standardtechnologien, mit künstlicher Intelligenz wie Deep Learning oder Data Mining ausgestattet. Maschinen lernen von ihren Anwendern und entwickeln sich kontinuierlich weiter, um menschliche Lern- und Denkprozesse zu simulieren. Das Ziel ist, auf Basis von Daten aus der Vergangenheit eigene Lösungen für die Gegenwart und Strategien für die Zukunft zu entwickeln. Kognitive Systeme sind im Vorfeld nicht auf konkrete Problemlösungen programmiert, sondern lernen selbstständig durch die gemachten Erfahrungen und gesammelten Daten. Sie entwickeln eigene Lösungen und Strategien durch die Analyse der Datenbasis. Diese Systeme interagieren in Echtzeit mit ihrem Umfeld und verarbeiten große Datenmengen. Hierfür wurden spezielle Chips entwickelt, die sich am menschlichen Gehirn orientieren. Mit ihrer Unterstützung werden kognitive Prozesse nachgebildet und Computer anpassungsfähiger. Diese komplexe Hardware und die Interfaces machen den Unterschied zu klassischen Anwendungen künstlicher Intelligenz aus. Kernkomponenten des Cognitive Computing sind Algorithmen des maschinellen Lernens, die die vorliegenden Daten kontinuierlich nach Mustern untersuchen und ihre Analysemethoden ständig verfeinern. Wichtig ist, dass beim Cognitive Computing sämtliche Informationen in ihrem Kontext wahrgenommen werden. Hierzu gehören kontextbezogene Merkmale wie z. B. Zeit, Ort und Personen, die die Bedeutung von Informationen beeinflussen. Zum Einsatz kommen text-, sprach- oder gestenbezogene Eingaben.
Cogs
C wie Cogs
Cogs sind Anwendungen des →Cognitive Computing. Sie verstehen Sprache und erkennen in einem Satz das Subjekt, Prädikat und Objekt. Cogs durchforsten bei Fragestellungen das Internet und suchen parallel nach Pro und Contra, nach Antworten und deren subjektiver Bewertung durch User. Über Spracherkennung können Algorithmen zur Stimmung des Users abgeleitet werden, um eine Aussage in ihrer Subjektivität beurteilen zu können. Informatiker sprechen von Ontologien.
Während bisherige Apps nur in der Lage waren, Texte zu erkennen und zu analysieren, beginnen Cogs damit, Hypothesen aufzustellen und diese mit Wahrscheinlichkeiten zu gewichten. Die eigentliche Weiterentwicklung beginnt erst, wenn die Ergebnisse mit richtig oder falsch bewertet werden. Cogs sind in der Lage, unsinnige Fragen zu erkennen und weichen nicht durch eine „vorprogrammierte“ Standardantwort aus, wie dies häufig bei digitalen Sprachassistenten der Fall ist. Sie erlauben sich, auch mal auf eine Frage mit „Bullshit“ zu antworten, wie Watson 2013, als ihm eine bewusst unlogische Übungsfrage gestellt wurde.
Cogs sind auf gutem Weg, Verknüpfungen zwischen Nervenzellen und somit das Denken zu simulieren. Sie finden mit der Zeit autonom heraus, ob ihnen gelieferte Informationen helfen. Daher ist es auch weniger kritisch, ob ihnen „gute oder schlechte Daten“ zur Verfügung gestellt werden. Durch dieses Feedback minimieren Cogs ihre eigene Fehlerquote und perfektionieren sich selbst – der Beginn der so genannten Superintelligenzen. Möglich sind alle diese Entwicklungen, da die Cogs beginnen, die menschlichen Sinne zu imitieren. Wissenschaftler arbeiten bereits daran, ein Backup des menschlichen Gehirns auf dem Computer abzuspeichern, um Verknüpfungen (Synapsen) aus Logik und Intuition herzustellen.
Mögliche Einsatzgebiete und Anwendungen sind gigantisch. Erste Ansätze dienen z. B. zur Analyse von Schlafstörungen und Depressionen oder Krankheiten per Biomarker zu „erriechen“. Besonders interessant sind Ansätze in Bezug aufs Schmecken und Fühlen. Erste Prototypen von Cogs können über Geschmacksrezeptoren die Zusammensetzung von Lebensmitteln erkennen und mögliche Gefahren, zum Beispiel bei Allergikern, aufzeigen. Andere Cogs machen das „Fühlen“ erlebbar. Über spezifische Vibrationsmuster können Texturen vermittelt werden, so dass nahezu jede Art von Oberfläche und das zugehörige Empfinden dieser simuliert werden kann. Für die Bekleidungsindustrie wäre diese Technologie ein Quantensprung, da Mode auch im Onlinegeschäft für Kunden „erfühlbar“ werden würde.
Collaborative Innovation Canvas
C wie Collaborative Innovation Canvas
Der Collaborative Innovation Canvas betrachtet das Innovationsmanagement in einer multidimensionalen Ebene. Zentrales Element ist die Value Proposition. In der horizontalen Ebene werden die unterschiedlichen Perspektiven der am Innovationsprozess Beteiligten betrachtet. Hierzu gehört die
- Unternehmensperspektive (Shareholder, Strategie, KPI)
- Prozessperspektive (Kennzahlen, Entscheidung, Umsetzung)
- Teamperspektive (Kompetenzen, Kultur, Kommunikation)
- Markt-/Kundenperspektive (Marktumfeld, Kundensegment, Kundenbeziehung)
und das sich daraus resultierende Befähigungsmodell. In der vertikalen Ebene wird das Werteversprechen, die Werteerfassung sowie die operationalisierte Wertschöpfung unterschieden. Sie spiegelt die strategische, konzeptionelle und operative Ebene. Die dritte Dimension wird durch eine diagonale Ebene dargestellt, mit der die beiden Pole zwischen dem technologiegetriebenen Push-Ansatz und dem marktgetriebenen Pull-Ansatz gegenüber gestellt werden.
Der Collaborative Innovation Canvas by e‑nnovalytics® ist die treibende Kraft hinter einem erfolgreichen Innovationsmanagement und vereint die strategische und operative Ebene genauso wie die unterschiedlichen Perspektiven und Interessen. Außerdem schafft er die Grundlage für eine innovationsfreundliche Unternehmens- und Projektkultur.
Company Builders
C wie Company Builders
Company Builders ist ein Begriff, der häufig im Zusammenhang mit Startups und synonym zu →Inkubator oder →Accelerator verwendet wird. Company Builders unterscheiden sich von Inkubatoren und Acceleratoren darin, dass diese überwiegend aus dem eigenen Unternehmen kommen. Es werden eigene Ideen entwickelt und das passende Team intern zusammengestellt. Dadurch haben Company Builders eine deutlich größere Mitgestaltung sowie Rolle bei der Mitentwicklung, Vermarktung und Skalierung neuer Unternehmen. In der Unternehmensentwicklung sind sie über alle Wachstumsphasen hinweg intensiv involviert. Das Ziel besteht darin, bestehende oder neue Geschäftsfelder mit eigenen Kompetenzen und Ressourcen zu entwickeln oder weiter zu entwickeln. Im Gegensatz zum klassischen eigenständigen Company Builder verfolgt der Corporate Company Builder das Ziel, neue Geschäftsmodelle nicht nur zu entwickeln und aufzubauen, sondern diese in die Unternehmensstruktur als Geschäftseinheit, Spin-out oder Beteiligung zu konsolidieren. Company Builders verfügen über die nötigen finanziellen Ressourcen, das Netzwerk und Managementkompetenzen. Ihr Ziel ist es, möglichst viele stark wachsende und kommerziell erfolgreiche Startups hervorzubringen.
Concierge MVP
C wie Concierge MVP
Concierge MVP ist eine besondere Variante des →Minimum Viable Products. Hierbei wird der Kundenauftrag für die Testphase manuell ausgeführt, der später im Geschäftsmodell automatisiert erfolgen soll. Den Begriff prägte Eric Ries 2012 mit dem Konzept →Lean Startup. Bevor man mit viel Zeit- und Kostenaufwand einen (perfekt) automatisierten Dummy investiert, wird das Prinzip bzw. prinzipielle Leistungsversprechen beim Kunden manuell getestet. Der Aufwand ist zunächst etwas höher, dafür bekommt das Team eine wertvolle Lernkurve. Dadurch erfährt man, ob es einen Bedarf an dem gibt, was man anbietet, wie der spätere Prozess genau aussehen wird und was der Kunde bereit ist, dafür zu zahlen usw. Der Vorteil beim Concierge MVP besteht darin, dass nicht einmal ein →Prototyp gebaut werden muss.
Corporate Digital Responsibility (CDR)
C wie Corporate Digital Responsibility (CDR)
Digitale Transformation wird in der Regel mit technologischem Fortschritt und wirtschaftlichem Wachstum in Verbindung gebracht. Die gesellschaftlichen Dimensionen und sozialen Aspekte dieser Entwicklung kommen in der Regel zu kurz. Corporate Digital Responsibility (CDR) bezieht sich auf die Unternehmensverantwortung in einer digitalen Gesellschaft und berücksichtigt die gesellschaftlichen, ökonomischen und ökologischen sowie sozialen Veränderungen durch die Digitalisierung. Der Begriff tauchte 2016 erstmals auf und steht für die freiwillige Selbstverpflichtung zum nachhaltigen Wirtschaften von Unternehmen. Er ist ein wichtiger Erfolgsfaktor und kulturprägend in der digitalen Transformation von Unternehmen. Da der digitale Wandel mittlerweile tiefgreifende Veränderungen in allen Branchen verursacht, ist CDR nicht nur für Digital- oder IT-Unternehmen relevant, sondern für alle Unternehmen mit einem digitalen Geschäftsmodell. Neben Selbstverständlichkeiten wie der Einhaltung und Erfüllung gesetzlicher Anforderungen und Standards sowie dem Umgang mit Kundendaten, Datenschutz sowie geistigem Eigentum usw. erstreckt sich CDR auch auf umfassende ethische Überlegungen und moralische Werte, nach denen ein Unternehmen agiert. Hinzu kommt die Beachtung digitaler Nachhaltigkeit z. B. im Umgang mit „digitalen Artefakten“ wie Big Data, Smart Data, Algorithmen und Künstlicher Intelligenz. Diese stehen oftmals im Widerspruch zu grundlegenden Verfassungswerten wie Humanität, Solidarität und Verantwortung. Corporate Digital Responsibility (CDR) greift die Probleme auf, die sich u. a. aus der Lücke oder Defiziten digitaler Fähigkeiten ergeben (ein Viertel aller Deutschen stehen aufgrund fehlender Kompetenzen im „digitalen Abseits“) oder in der „unethischen“ Nutzung von Kundendaten und der „Korruption“ der digitalen Selbstbestimmung. Ein weiteres Thema ist der ungleiche Zugang sowie der ökologische Fußabdruck der digitalen Technologie. Außerdem setzt sich CDR mit dem Druck auf Gemeinschaft und Wohlbefinden auseinander, der z. B. durch einen „Kollaps der Realität“ in den sozialen Medien entstanden ist und noch weiter zu eskalieren scheint oder auch dem Problem einer intransparenten digitalen Welt, deren „unsichtbare“ Regeln von der Gemeinschaft nicht kontrolliert werden können. Corporate Digital Responsibility (CDR) setzt sich in gleicher Weise mit der Nutzung von Chancen und Potenzialen sowie dem Abwenden von Risiken und Nachteilen auseinander. Das höhere Ziel besteht darin, einen „Shared Value“ im digitalen Wirtschaften für Gesellschaft und eigenem Unternehmen und somit neue Wertschöpfungsketten zu generieren.
Coverage-Faktor
C wie Coverage-Faktor
Der Coverage-Faktor zeigt in der Marktforschung an, zu wie viel Prozent eine Untersuchung den Gesamtmarkt abdeckt. Eine Coverage von z. B. 75% besagt, dass die ermittelten Marktdaten zu Dreiviertel den Gesamtmarkt abdecken.
Co-Working Space
C wie Co-Working Space
Co-Working bedeutet wörtlich übersetzt “nebeneinander arbeiten“ und trat als Konzept Anfang der 2000-er Jahre erstmals in den USA unter dem Begriff „Shared Workspace“ auf. Die im Silicon Valley in Kalifornien entstandene Arbeitsform bezeichnet einen zeitlich flexiblen Arbeitsplatz, den sich mehrere Menschen teilen. Dieser findet in so genannten „Co-Working Spaces“ statt, von denen der erste im Jahr 2005 in San Francisco eröffnet wurde. Typisch sind große Räume mit offener Architektur. Zu Beginn als reines Phänomen in Großstädten und Metropolen zu beobachten, hat sich das Konzept mittlerweile weltweit sowohl als neue Arbeitsform im Sinne der Arbeit 4.0 (New Work) etabliert und findet zunehmend auch im ländlichen Raum statt. Anders als in einem herkömmlichen Business Center sind Co-Working Spaces „sozialer“. Sie haben sich neben dem klassischen Arbeitsplatz im Unternehmen und dem Home Office als „dritte Orte“ entwickelt, die sich vor allem durch Flexibilität, Unabhängigkeit und Zugänglichkeit auszeichnen. So können die Co-Worker (Nutzer) aus verschiedenen Tarifen wählen, wann, wie häufig und wie lange sie den Space nutzen wollen und welche technischen Angebote und digitalen Dienstleistungen sie in Anspruch nehmen. Hierzu werden so genannte Plug and Play-Arbeitsplätze angeboten: volle Arbeitsplatz-Infrastruktur, Service, Reinigung, Nebenkosten, Highspeed-Internetzugang, Kaffee-Flatrate und manchmal auch Fitnessräume oder andere Angebote zum physischen oder psychischen Ausgleich.
Eine der Leitideen von Co-Working Spaces ist, dass dort Menschen verschiedenster beruflicher Qualifikationen, Erfahrungen und Kompetenzen aufeinandertreffen, so dass durch Interaktion Synergien genutzt werden und neue Ideen und Projekte entstehen. Als multifunktionale Begegnungsräume bilden Co-Working Spaces einen Indikator für innovative Kollaboration und dem Ausbau persönlicher Netzwerke. Darüber hinaus finden oft Veranstaltungen und Workshops von und für die Co-Worker statt, die zum einen den Community-Gedanken, gleichzeitig aber auch die berufliche Weiterbildung fördern. Vor allem das Miteinander und die Gemeinschaft innerhalb der Co-Working Spaces bilden einen großen Vorteil gegenüber dem Arbeiten im Home Office, wo man beruflich und sozial oft isoliert ist.
Nahezu alle Co-Working Spaces verfolgen die gleichen fünf Grundwerte: Zusammenarbeit, Community, Nachhaltigkeit, Offenheit und Zugänglichkeit. Diese repräsentieren einen neuen Work-Life-Style, der durch einen Ideen- und Informationsaustausch geprägt ist und die Arbeitsumgebung gleichzeitig zu einer Lernumgebung umfunktioniert.
Cradle-to-Cradle (C2C)
C wie Cradle-to-Cradle (C2C)
Cradle-to-Cradle kann sinngemäß „vom Ursprung zum Ursprung“ übersetzt werden und beschreibt im Prinzip einen Ansatz für eine durchgängige und konsequente Kreislaufwirtschaft. Dieses Denken in Kreisläufen wurde Ende der 1990er-Jahre von dem deutschen Chemiker Michael Braungart und dem US-amerikanischen Architekten William McDonough entworfen. In ihrer Philosophie sind Produkte nach dem „Cradle-to-Cradle-Prinzip“ solche, die entweder als biologische Nährstoffe in biologische Kreisläufe zurückgeführt oder als „technische Nährstoffe“ kontinuierlich in technischen Kreisläufen gehalten werden können, also durch Wiederaufbereitung wieder dem Kreislauf zugeführt werden. Hierbei darf nicht nur der funktionale Nutzen im Mittelpunkt stehen, sondern auch die Verwendung der Rohstoffe nach der Nutzung. Kostbare Ressourcen werden nicht verschwendet, sondern wieder verwendet.
Cradle-to-Cradle basiert auf einer radikalen Denkweise in Kreisläufen und orientiert sich dabei an der Natur, denn biologische Kreisläufe lassen keinen Abfall zurück. Der perfekte Kreislauf bedeutet im Endeffekt nichts anderes als ein völliges Umdenken im Produktlebenszyklus der Produkte – angefangen vom Produktdesign, der Gewinnung der Rohstoffe, der Produktion und dem Inverkehrbringen, der Nutzung bis hin zur Rücknahme und Wiederverwendung. Das Ergebnis wäre eine Welt ohne Müll. Der Cradle-to-Cradle-Ansatz schließt auch die umweltfreundliche Produktion und die Nutzung von erneuerbaren Energien mit ein, also den biologischen und technischen Kreislauf.
Aktuell basiert unsere auf Effizienz getrimmte und auf Gewinnmaximierung ausgerichtete Absatzwirtschaft noch auf das genaue Gegenteil. In der Abfallwirtschaft spricht man deshalb vom Cradle-to-Grave-Prinzip, das nichts anderes bedeutet, dass Produkte nach dem Ende ihrer Nutzung auf dem Müll landen. Zur Produktion werden immer wieder neue Rohstoffe benötigt, die bekanntlich endlich sind – von der Umweltverschmutzung durch den Müll abgesehen. Braungart und McDonough haben im Kontrast zu „Ökobilanz“ (die den Stoffkreislauf und dessen Umweltwirkungen „von der Wiege bis zur Bahre“ analysieren) und „Ökoeffizienz“ auch den Begriff „Ökoeffektivität“ geprägt.
Cradle-to-Grave-Prinzip
C wie Cradle-to-Grave-Prinzip
→Cradle-to-Cradle-Prinzip
Creative Problem Solving
C wie Creative Problem Solving
Creative Problem Solving ist eine Kreativtechnik aus den 1950-er Jahren und wurde von Alex Osborn und Sidney J. Parnes entwickelt. Nachdem Alex Osborne zuvor die Grundregeln des Brainstormings beschrieben hatte, wollte er ein Modell für den gesamten Prozess der kreativen Problemlösung entwickeln. Hierbei unterschied er zwischen zwei grundlegenden Denkweisen, die im Creative Problem Solving Prozess stattfinden:
- divergentes Denken (Denken in vielen Optionen) und
- konvergentes Denken (Evaluierendes Denken, Entscheidungen treffend)
Isaksen und Treffinger entwickelten den Creative Problem Solving Prozess in den 1990-er Jahren weiter und unterschieden in drei Phasen und sechs Teilschritte:
- Explore the Challenge (Erkunden der Herausforderung)
1.1 Mess Finding (Bestimmen des Ziels)
1.2 Data Finding (Sammeln von notwendigen Informationen)
1.3 Problem Finding (Identifizieren des Problems, das gelöst werden muss, um das Ziel zu erreichen)
- Generate Ideas (Generieren von Ideen)
2.1 Idea Finding (Generieren von Ideen für die Lösung des identifizierten Problems)
- Prepare for Action (Handlung vorbereiten)
3.1 Solution Finding (Ausarbeiten von Ideen zu einer umsetzbaren Lösung)
3.2 Acceptance Finding (Handlungsschritte planen)
Cross-Impact-Analyse
C wie Cross-Impact-Analyse
Die Cross-Impact Analyse beschreibt eine Prognosetechnik. Hierbei handelt es sich um eine aufwändige Methode zur Erstellung und Beurteilung von Szenarien mit vielen, nicht analytisch eindeutig zu identifizierenden Faktoren. Mit der Wechselwirkungsanalyse werden Zusammenhänge (engl. cross impact) zwischen verschiedenen zukünftig möglicherweise auftretenden Ereignissen simuliert, anschließend analysiert deren gegenseitige Auswirkungen bewertet. Die meisten Ereignisse bzw. Entwicklungen stehen auf irgendeine Art und Weise mit anderen Ereignissen und Entwicklungen in Beziehung (Korrelation). Andere Prognosetechniken wie z. B. die →Delphi-Methode können nur abgegrenzte Problemstellungen betrachten. Verknüpfungen und deren Abhängigkeiten werden hierbei nicht berücksichtigt. Die Cross-Impact-Analyse schließt diese Lücke und wird u. a. in der →Szenario-Technik eingesetzt.
Das Grundprinzip der Cross Impact Matrix (CIM) ist die Gegenüberstellung von Ereignissen in einer Matrix. Hierbei werden die betrachteten Ursachen und möglichen Wirkungen ins Verhältnis gesetzt und somit die Wechselwirkungen erfasst. Die geschätzte Eintrittswahrscheinlichkeit dient als Anfangswert für eine numerische Simulation. In jedem Kreuzungspunkt der Matrix tragen befragte Experten unabhängig voneinander ein, wie sie den Einfluss der jeweiligen Ursache auf die zugehörige Wirkung einschätzen. Dies kann in einer einfachen Symbolik (positiver Einfluss, kein Einfluss, negativer Einfluss) sein oder in einer Zahlenskala (meist von -3 bis +3). Aus den Einzelergebnissen wird eine gemeinsame Matrix berechnet. Hierfür wird häufig eine →Monte-Carlo-Simulation verwendet. Diese wird anschließend den Experten zur Beurteilung vorgelegt.
Die Cross-Impact-Matrix dient der Beurteilung der Eintrittswahrscheinlichkeit verschiedener, möglicher Zukunftsszenarien (Futuribles genannt). Sie hat einen deskriptiven Charakter und soll nicht zur Entscheidungsfindung dienen, sondern zur Orientierung. Bei komplexeren Fragestellungen kommt eine Simulationssoftware zum Einsatz. Anwendungsgebiete sind volkswirtschaftliche Zusammenhänge wie z. B. die Analyse des Weltölmarktes oder die Liberalisierung des Energiemarktes. Des Weiteren wird die Cross-Impact-Matrix auch gerne in der Abschätzung der Technologieentwicklung und ihrer Auswirkungen eingesetzt. Selbst für kleinere Analysen z. B im Rahmen einer detaillierten Businessplan-Entwicklung kann die Cross-Impact-Analyse sinnvoll sein, z. B. wenn verschiedene Business-Cases betrachtet und bewertet werden.
Die Cross-Impact-Analyse zeigt bei einer kritischen Betrachtung einige Schwächen auf. So erfolgt die Auswahl und Beurteilung der relevanten Faktoren subjektiv. Des Weiteren baut die Analyse auf Datenpaaren auf und ignoriert, dass in der realen Welt mehrere Entwicklungen ein Ereignis gleichzeitig beeinflussen können. Das Sammeln und Auswerten der Daten kann sehr zeitaufwendig sein, gleichzeitig ist gerade die ausführliche Auseinandersetzung mit verschiedenen Einflussfaktoren und deren Auswirkungen einer der größten Stärken der Cross-Impact-Analyse. Sie liefert oft Denkanstöße für alternative Vorgehensweisen.
Crowdfunding
C wie Crowdfunding
→Crowdsourcing
Crowdsourcing
C wie Crowdsourcing
Der Begriff Crowdsourcing wurde geprägt vom amerikanischen Autor Jeff Howe. Er setzt sich aus den englischen Wörtern Crowd (Menge, Menschenmasse) und Outsourcing (Auslagerung) zusammen. Beim Crowdsourcing (auch Crowdworking genannt) verlegt eine Organisation traditionell interne Aufgaben und Prozesse nach außen. Eine Gruppe Externer (so genannte Crowdsourcees) wie z. B. Kunden, Geschäftspartner, Branchenexperten oder auch eine hochmotivierte und engagierte Community z. B. im Rahmen eines Hackathons, die an Innovation und Disruption interessiert ist, beteiligen sich aktiv an ausgelagerten Aufgabenstellungen. Crowdsourcing wird auch zur Ideenbewertung eingesetzt, wenn Unternehmen im Rahmen von Open Innovation Projekten mehrere Ideen bewerten muss.
Crowdsourcing ist hierbei eine interaktive Form der Zusammenarbeit, die kollaborativ oder wettbewerbsorientiert erfolgen kann. Hierzu wird eine Anzahl extrinsisch oder intrinsisch motivierter Experten mit einem unterschiedlichen Wissensstand einbezogen. Gegenstand sind in der Regel Produkte oder Dienstleistungen mit einem unterschiedlichen Innovationsgrad, die durch die Gruppe reaktiv aufgrund externer Anstöße oder proaktiv durch selbsttätiges Identifizieren von Bedarfen entwickelt werden.
Das Bündeln dieses Wissens vieler Experten wird auch als Schwarmintelligenz oder kollektive Weisheit bezeichnet. Erst durch die Entwicklung des Web 2.0 mit seinen sozialen Netzwerken und neuen Informations- und Kommunikationssystemen ist das gemeinschaftliche Entwickeln, Diskutieren, Weiterdenken und Optimieren von Ideen in der Masse möglich. Crowdsourcing erhöht die Geschwindigkeit, Qualität, Flexibilität, Skalierbarkeit und Vielfalt bei verringerten Kosten und bringt neue Ideen und Perspektiven ein.
In den letzten Jahren haben sich besondere Formen rund um das Crowdsourcing etabliert und werden teilweise synonym verwendet, was nicht immer korrekt ist. Co-creation bezeichnet die gemeinsame Produktentwicklung von Unternehmen und einer Gruppe Externer. Von der Entwicklung der Idee über die Implementierung bis zum Verkauf sind die Externen beteiligt. Beim Crowdfunding (Schwarmfinanzierung) geht es primär darum, Kapitalgeber zu gewinnen. Weniger im Sinne eines Investors oder Inkubators, sondern über Viele, die sich zusammenschließen sich finanziell mit Eigenkapital an der Unterstützung von Projekten, Produktentwicklungen oder Geschäftsideen beteiligen. Das Testen von Prototypen und ersten Anwendungen durch eine freiwillige Gruppe wird Crowdtesting genannt. Dadurch ist es möglich, Entwicklungen vor der offiziellen Markteinführung auf unterschiedlichsten Systemen auf Fehler zu prüfen und ihre Usability zu optimieren. Open Source heißt übersetzt offene Quelle und steht für öffentlich verfügbare Quelltexte bei Software. Programme dürfen je nach Lizenz verwendet, weitergegeben, verändert und damit auch weiterentwickelt werden. Im Unterschied zum klassischen Crowdsourcing, bei dem es in der Regel ein Verhältnis von Auftraggebern (in der Regel Unternehmen) und Auftragnehmern (Mitglieder der Crowd) gibt, entstehen Ergebnisse bei Open Source dezentral. Wissen wird nicht wie in der Regel bei Crowdsourcing gegen Vergütung oder andere Incentives erarbeitet, sondern in der Regel frei zur Verfügung gestellt. Entscheidet sich eine Organisation für Open Innovation öffnet sie ihren Innovationsprozess über die Unternehmensgrenzen hinaus. Bei der Produktentwicklung fließen Ideen sowohl aus der internen Organisation als auch durch Externe ein wie z. B. durch Kunden, Lieferanten, Geschäftspartnern oder Hochschulen und Forschungseinrichtungen etc. Unternehmen nutzen dafür auch das Crowdsourcing.
Crystal Methode
C wie Crystal Methode
Crystal ist der Oberbegriff für verschiedene agile Methoden in der Softwareentwicklung. Die einzelnen Methoden wurden zur Unterscheidung nach Farben (Crystal Clear, Crystal Yellow, Crystal Orange, …) bezeichnet. Die einfachste Variante Crystal Clear eignet sich für Teamgrößen von zwei bis sechs Personen, die anderen Varianten heißen Crystal Blue, Crystal Magenta, Crystal Red, Crystal Orange Web, Crystal Orange und Crystal Yellow. Sie spiegeln die jeweiligen Teamgrößen der entsprechenden Projekte wider. Abhängig von der Teamgröße und der sich daraus ergebenden Crystal Variante verändern sich auch die Anzahl der Rollen, der Dokumentationsumfang und die Menge der Methoden, die eingesetzt werden.
Die Entwicklung der Methode geht auf Alistair Cockburn zurück. Anfang der 1990-er Jahre sollte er für IBM Consultings eine Methode entwickeln, die der objektorientierten Entwicklung diente. Anders als heute gab es vor 30 Jahren keine agilen Methoden, mit denen die Aufgabenstellung gelöst werden konnte – es gab diese nicht mal, um neue Ideen damit abzugleichen. Infolgedessen ging Cockburn ganz klassisch vor und analysierte extrem viele Projekte und führte Interviews mit den Projektbeteiligten durch. Hierbei kam er zu dem Ergebnis, dass jedes Projekt seine Eigenart hat und mit anderen Projekten kaum vergleichbar ist. Eine seiner ersten Erkenntnisse war, dass unterschiedliche Projekte mit verschiedenen Herausforderungen und heterogener Teambesetzung mit einheitlichen und uniformen Regeln nicht erfolgreich umgesetzt und der Individualität eines jeden Projektes nicht gerecht werden können. Eine weitere Erkenntnis war, dass nur eine regelmäßige Kommunikation im Projektteam die notwendige Transparenz schafft sowie Motivation und Identifikation hochhält. Beides hielt Cockburn für den Erfolg oder Misserfolg für essenziell. Cockburn ergänzte die erfolgskritischen Faktoren noch um drei Bausteine:
- die Anzahl der Projektmitarbeiter, die koordiniert werden müssen
- die so genannte Kritikalität, mit der eingestuft werden kann, ob sich Fehler in der Softwareentwicklung nur auf den Komfort des Anwenders (niedrigste Stufe), den finanziellen Mehraufwand für den Auftraggeber, den Fortbestand des Unternehmens oder sogar auf Menschenleben (höchste Stufe) auswirken können
- Prioritäten, die individuell und nach Bedarf bestimmt werden.
Alle Crystal-Methoden weisen folgende, gemeinsame Merkmale auf:
- Der Kunde erhält regelmäßig (mindestens pro Quartal) eine funktionierende Zwischenversion der Software
- Permanente Suche, Bewertung und Priorisierung von Verbesserungsvorschlägen
- Probleme und Meinungsverschiedenheiten (sowohl innerhalb des Teams als auch zu Vorgesetzten) werden offen angesprochen
- Die Kommunikation innerhalb des Teams und zum Kunden ist eng und intensiv
- Auf Kundenseite muss ständig ein kompetenter Ansprechpartner als Benutzer des zukünftigen Produktes erreichbar sein
- Alle am Projekt beteiligten Mitarbeiter arbeiten grundsätzlich lösungs- und zielorientiert
- Einsatz von Versionsverwaltung bzw. einem Konfigurations-Management
- Häufige (automatisierte) Tests von Programmcode sowie regelmäßige Erstellung einer lauffähigen Testversion.
Crystal-Methoden haben ihre Stärken im Bereich User-Testing, Qualitätsmanagement und in der Implementierung. Mittel bis schwach ausgeprägt sind dagegen Projektmanagement, Requirement-Management, die Integration und Einführung sowie Wartung. Ungeeignet ist die Methode für technische Konzeption und Systemdesign.
Culture in Action Index (CIA)
C wie Culture in Action Index (CIA)
Eine der essenziellen Herausforderungen bei der digitalen Transformation von vor allem etablierten und traditionellen Unternehmen ist die Veränderung der Unternehmenskultur. Der hierzu notwendige Change-Prozess muss regelmäßig überprüft, ggf. angepasst und neu justiert werden. Mit dem Culture in Action Index (CIA) kann der Transformationsprozess und -fortschritt gemessen werden. Er ist ein Barometer für den Kulturwandel im Unternehmen. Hierbei werden Mitarbeiter befragt, wie sie selbst, wie Kollegen und wie direkte Führungskräfte andere motivieren bzw. demotivieren, die angestrebte Unternehmenskultur zu leben und sich mit ihr identifizieren. Daher fokussiert sich der Kulturindex auf die Mitarbeiter- und Kollegen-Perspektive und ein Maß dafür, wie sie über die eigene Organisation denken und ob sich Mitarbeiter in Bezug auf ihr Arbeitsumfeld und ihre Aufgaben glücklich, neutral oder traurig fühlen. In der Praxis haben sich 15 Fragen bewährt:
- Haben Sie das Gefühl, dem Management vertrauen zu können? Warum oder warum nicht?
- Haben Sie das Gefühl, dass Sie Möglichkeiten haben, dem Management Feedback zu geben?
- Haben Sie das Gefühl, dass Ihre Meinung wichtig ist?
- Fühlen Sie sich in Ihrem Job oft gestresst oder überfordert?
- Erhalten Sie oft Feedback oder erhoffen sich ein Feedback von Ihrem Vorgesetzten?
- Haben Sie das Gefühl, dass Sie eine gute Zusammenarbeit mit Ihrem Vorgesetzten haben?
- Haben Sie das Gefühl, offen kommunizieren und eine Meinung äußern zu können?
- Was würde Sie an Ihrem Arbeitsplatz glücklicher machen?
- Fühlen Sie sich sicher an Ihrem Arbeitsplatz? Warum oder warum nicht?
- Haben Sie das Gefühl, dass es sich lohnt, alles für Ihren Job zu geben?
- Glauben Sie, dass Sie einen Krankheits- oder Urlaubstag ohne Sorgen hinnehmen können?
- Haben Sie flexible Arbeitszeiten?
- Sind Sie stolz darauf, anderen von Ihrem Arbeitsplatz zu erzählen?
- Würden Sie anderen empfehlen, sich bei Ihrem Arbeitsplatz zu bewerben? Warum oder warum nicht?
- Fühlen Sie sich mit Ihren Kollegen verbunden?
Idealerweise sollten diese Fragen nicht einmalig gestellt werden, sondern in regelmäßigen Abständen (innerhalb von 1 bis 2 Jahren) und die Veränderungen beobachtet werden. Der so genannte Tipping Point ist erreicht, wenn 35% der Mitarbeiter konsistent ein kulturell verändertes Verhalten an den Tag legen.
Culture Map Methode
C wie Culture Map Methode
Die Cultur Map Methode wird im Rahmen von →Change-Prozessen angewendet und ist ein innovativer Ansatz, um →Unternehmenskultur sichtbar und somit erlebbar bzw. greifbar zu machen. Die partizipative Methode basiert auf der Memetik, der Lehre der kulturellen Evolution und kombiniert wissenschaftliche Forschung und innovative Theorien mit praktischen Erkenntnissen aus der Zusammenarbeit mit Unternehmen und Organisationen. Mit einer Culture Map werden Verhaltensweisen in Organisationen sichtbar gemacht und ihre Auswirkungen identifiziert und charakterisiert. Diese liefern die Grundlage für unterschiedliche Unternehmenskulturen. Die Culture Map stellt Kulturmuster anhand von sieben Werteclustern dar, die jeweils durch eine Farbe gekennzeichnet sind. Die Cluster zeigen die typischen Charakteristika einer Unternehmenskultur.
Violette Unternehmenskulturen zeichnen sich durch ein patriarchisches Verhalten aus. Der Unternehmensgründer gibt den Ton an. Treue und Loyalität bis hin zur bedingungslosen Gefolgschaft sind das oberste Gebot. Die Individualität des Einzelnen ist nicht erwünscht, Anpassung und Konformität werden erwartet. Schlüsselpositionen im Unternehmen werden nur an interne und altgediente Mitarbeiter vergeben. Nach außen wird eine hohe Identifizierung mit dem Unternehmen demonstriert. Dies zeigt sich in einer starken Corporate Identity bis hin zu einer einheitlichen Kleidung. In dem meisten Fällen ist das Corporate Design eher konservativ und visualisiert traditionelle Unternehmenswerte. Gleichzeitig gibt es eine klare Abgrenzung nach außen. Ideen und Vorschläge, die nicht von den eigenen Mitarbeitern entstanden sind, werden konsequent und ungeprüft abgelehnt. Violette Unternehmen halten am Status quo fest und sind an Veränderungen nicht interessiert. Das bestehende Geschäftsmodell ist auf langfristiges Wachstum ausgelegt.
Rote Unternehmenskulturen zeichnen sich dagegen durch ein autoritäres, egoistisches und machtgeprägtes Verhalten aus. Im Mittelpunkt steht bedingungsloses Wachstum um jeden Preis. Der Führungsstil im Unternehmen ist geprägt durch Top-down-Entscheidungen bis hin zur Sturheit („mit dem Kopf durch die Wand“). Scheitern und Aufgeben sind keine Option. Klar strukturierte Prozesse mit Regeln und Planungsphasen wird man in Unternehmen mit einer roten Kultur vergeblich suchen. Es gilt das Motto „Learning by doing“ und „Jeder gegen jeden“. Führungskräfte agieren hemdsärmelig und sehr operativ getrieben. Das Motto lautet: „Done is better than perfect.“ Eine besondere Form roter Unternehmenskulturen erkennt man an einem Realitätsverlust. „Ich mache mir die Welt, wie sie mir gefällt“ von Pipi Langstrumpf lässt grüßen.
Blaue Unternehmenskulturen sind sehr rational und monoton geprägt; es gibt klare Hierarchien, jede Menge Regeln, Prozesse und Zuständigkeiten. Die Unternehmen werden sehr bürokratisch geführt. Es gibt eine klare Ordnung und definierte Strukturen und Niemand weicht ohne Grund von diesen Vorgaben ab. Eigeninitiative und Mitdenken sind ausdrücklich nicht erwünscht. Budgets, Ressourcen, Rollen und Zuständigkeiten sowie die dazugehörigen Kompetenzen sind geregelt. Diese Unternehmen sind durch die fünf »S« wie Sichtbare Ordnung, Sortieren, Standardisieren, Sich verbessern und Sauberhalten geprägt. Typische Vertreter dieser Kultur sind Unternehmen mit Massenproduktion und Fließbandarbeit. Entscheidungen von „oben“ werden grundsätzlich nicht hinterfragt. Es herrscht eine eher unterkühlte Atmosphäre; Emotionen haben in roten Unternehmenskulturen nichts zu suchen. Unternehmen mit einer blauen Unternehmenskultur sind auf langfristiges Wachstum ausgelegt und auf Prozesseffizienz.
Orange Unternehmenskulturen findet man vor allem in stark wachsenden und sehr erfolgreichen Unternehmen, nicht selten aus der Tech-Branche. Dem Erfolg wird alles untergeordnet. Der Zweck heiligt die berühmten Mittel. Pragmatismus und schnelle Erfolge stehen im Mittelpunkt. Hierzu werden Regeln, wenn es welche gibt, regelmäßig gedehnt oder großzügig ausgelegt und individuell interpretiert. In orangenen Kulturen herrscht immer eine gewisse Aufbruchstimmung. Es gibt kein Best Practise, diese werden eher selbst definiert. In Unternehmen dieser Kultur wurde das Motto geboren: „Es gibt keine Probleme, sondern nur Herausforderungen“. Individuelle Leistungen stehen im Vordergrund und werden entsprechend belohnt. Das ungeschriebene Leitbild lautet: „Jeder ist seines Glückes Schmied“. Dies bedeutet aber auch, dass unter den Mitarbeitern wie auch den Führungskräften ein permanenter Wettbewerb besteht. In Unternehmen mit einer orangenen Unternehmenskultur bleibt das Privatleben regelmäßig hinter dem Berufsleben zurück. Orangene Kulturen sind geprägt von einer hohen Kreativität und Experimentierfreude. Die Kommunikation verläuft in der Regel unabhängig von Hierarchie und Strukturen. Das Projektmanagement ist von einer hohen Agilität geprägt.
Grüne Unternehmenskulturen sind von einem hohen Verantwortungsbewusstsein geprägt, gegenüber den Menschen im Unternehmen, Kunden, Lieferanten und Geschäftspartnern sowie der Gesellschaft. Der Glaube an das Gute im Menschen und ein harmonisches Miteinander stehen im Mittelpunkt. Führungskräfte haben in der Regel die Funktion eines Coaches oder Mentors. In grünen Unternehmenskulturen gibt es eine hohe Identifikation mit dem Unternehmen, was zu einer hohen Zufriedenheit und geringen Fluktuation der Mitarbeiter führt. Der Führungsstil ist partnerschaftlich und vom Grundsatz „Dialog statt Anweisungen“ und „Betroffene zu Beteiligten machen“ geprägt. Dies kann allerdings auch dazu führen, dass Unternehmen mit einer grünen Kultur gutgläubig agieren oder konfliktscheu sind und somit Kompromisse suchen, die nicht immer erfolgreich sein müssen. Das Geschäftsmodell ist stark auf Nachhaltigkeit ausgelegt. In der Außendarstellung verhalten sich derartige Unternehmen gesellschaftspolitisch korrekt.
Gelbe Unternehmenskulturen haben die Veränderungen als Selbstverständlichkeit in ihrer DNA verankert. In Unternehmen dieser Kultur lautet das Motto: „Heute ist das Gestern von morgen“ – und dies als Querschnittsfunktion in der gesamten Organisation. Die Zukunft ist allgegenwärtig und die Gegenwart nur dazu da, alle Voraussetzungen hierfür zu schaffen. Der Spruch von Heraklit: „Nichts ist so beständig wie der Wandel“ treibt diese Unternehmen an, die sich vor allem im technologischen Wettbewerb behaupten müssen. Das Geschäftsmodell besteht aus Wissen bzw. synonym aus Daten und deren Monetarisierung. Unternehmen mit einer gelben Kultur haben eine hohe Innovationsrate. Eine Mischung aus Neugierde und Risikobereitschaft sowie Logik und Verstand sind die Grundpfeiler in gelben Unternehmenskulturen. Forscher und Entdecker können sich in diesem Umfeld frei entfalten, in dem Freiheit und Kreativität genauso gefördert werden wie Klarheit und Vernunft im Denken. Gelbe Unternehmenskulturen sind technisch, rational und sachlich geprägt, so dass die Emotionen und nicht selten der Faktor Menschlichkeit auf der Strecke bleiben. Außerdem besteht die Gefahr der Verzettelung, wenn ständig neue Ideen mehr honoriert werden als eine erfolgreiche Umsetzung.
Aqua farbene Unternehmenskulturen vereinen alle anderen Kulturfarben und halten diese in der Balance. Unternehmen dieser Kultur haben verstanden und akzeptiert, dass in globalen Ökosystemen eine hohe Komplexität herrscht und Lösungen ganzheitlich und nachhaltig entwickelt werden müssen. Eines der Ziele besteht darin, resilientere Unternehmen zu schaffen, um nahezu jede Krise überstehen zu können. Hierzu nutzen diese Unternehmen die Gegensätzlichkeiten verschiedener Kulturprägungen und integrieren diese zu einer neuen und modernen Unternehmenskultur, in der auf agile Netzwerke und eine starke Selbstorganisation gesetzt wird, anstatt auf klassische Hierarchien und starre Prozessbeschreibungen. Unterschiede der einzelnen Kulturfarben werden nicht als Trennendes verstanden, sondern der Vorteil im Kontext herausgestellt. Die Loyalität gegenüber dem Team und der Erfolg des Projektes steht über der Identifikation mit dem Unternehmen. Unternehmen mit einer Aqua farbenen Kultur geht es vor allem um eine nachhaltige und sinnstiftende Ausrichtung. Das Geschäftsmodell steht im Kontext, welchen gesellschaftlichen Beitrag das Unternehmen leistet. In besonders stark ausgeprägten Aqua farbenen Unternehmenskulturen findet man nicht selten einen Hang zu Altruismus und Spiritualität vor.
Die Cultur Map Methode wird nicht nur zur Bestandsaufnahme angewendet, sondern auch um Rahmenbedingungen und Maßnahmen für eine gewünschte Unternehmenskultur zu definieren sowie den Change-Prozess zu moderieren. Im Ergebnis wird ein Prozess entwickelt, dem →Business Culture Design.
Customer Centricity
C wie Customer Centricity
Der Begriff „Customer Centricity“ ist nicht einfach der englische Begriff für Kundenorientierung oder Kundenzentrierung. Er definiert einen grundlegenden Perspektivwechsel und ist eine von mehreren →Unternehmensstrategien. Aus einem produktorientierten Ansatz (Funktionalität) wird ein kundenorientierter Ansatz (Zufriedenheit). Somit ist eine konsequente Kundenzentrierung auch nicht nur ein Vertriebs- und/oder Marketingkonzept oder ein Service, bei dem sich alles um den Kunden dreht. Customer Centricity ist die Essenz aus Unternehmensstrategie, →Unternehmenskultur und Unternehmensphilosophie und somit die DNA des Unternehmens. Sie wird zur Querschnittsfunktion in allen Unternehmensbereichen, so dass an die Menschen in einer Organisation die Fähigkeit abverlangt wird, eine hohe Kundenempathie aufzubauen. Hierzu dienen u. a. die →Buyer Persona Methode oder die →Culture Map Methode. Seinen Kunden zu kennen bedeutet nicht, möglichst viele Daten von ihm in ein CRM einzupflegen. Seinen Kunden zu verstehen bedeutet, seine Bedarfe und Bedürfnisse, Wünsche und Erwartungen, Verhaltensweisen, Probleme und Herausforderungen zu kennen und ihn zu unterstützen, erfolgreich zu sein. Auf der Grundlage können die Touchpoints systematisiert und die Painpoints entlang der →Customer Journey identifiziert werden. Infolgedessen beginnt beim →Customer Centric Approach die →Wertschöpfungskette beim Kunden. Aus dem produktorientierten Push-Ansatz wird ein kundenorientierter Pull-Ansatz. Die Erfüllung der Kundenerwartungen, -bedürfnisse und -wünsche als Indikator für Kundenzufriedenheit ist die Kernkompetenz im Geschäftsmodell von Unternehmen. Customer Centricity kann auch als →USP definiert werden, wenn die Customer Journey und User Experience einzigartig sind. Die Unternehmensstrategie als Grundlage sowie sämtliche operative Maßnahmen wie z. B. “Loyalty-Programs” als Implementierung sind konsequent auf eine nachhaltige Kundenbeziehung ausgerichtet. Das Geschäftsmodell ist von gegenseitiger Wertschätzung, Verlässlichkeit, Loyalität und Empathie gekennzeichnet.
Eine Geschäftsbeziehung ist keine Einbahnstraße und ein Kunde nicht nur ein Käufer. Zufriedene Kunden werden zu einflussreichen Influencern – auch im B2B-Bereich. Das Kundenfeedback z. B. in Form von Bewertungen in den sozialen Netzwerken triggert ggf. potenzielle Neukunden. Die Meinung und Glaubwürdigkeit von Kunden in Foren und Communities steht über der subjektiven Werbung von Unternehmen. Kunden können somit den Erfolg oder Misserfolg von Produkten oder ganzen Unternehmen (mit) beeinflussen. Diese Entwicklung wird als →Customer Empowerment bezeichnet und wird in den nächsten Jahren an Bedeutung gewinnen. Nicht ohne Grund gehen immer mehr Unternehmen dazu über, Kunden über →Open Innovation in den eigenen Innovationsprozess mit einzubeziehen.
Auswirkungen der Customer Centricity im Online-Marketing und/oder im →E-Commerce zeigen sich z. B. im User Centered Design, einer kundenspezifischen Usability, dem Inbound Marketing sowie einer Multichannel-Kommunikation. Hierbei geht es nicht nur um Leadgenerierung und Neukundengewinnung, sondern um langfristige Kundenbeziehungen. Ein wichtiger Indikator für nachhaltige Kundenzufriedenheit zeigt sich regelmäßig beim Post-Sale. Customer Centricity ist keine Frage der Unternehmensgröße und/oder des Bekanntheitsgrades oder Markenimage.
Customer Lifetime Value (CLV)
C wie Customer Lifetime Value (CLV)
Der Customer Lifetime Value ist eine wichtige Kennzahl der Kundenbindung. Der Begriff setzt sich aus zwei Metriken zusammen: dem aktuellen Kundenwert sowie dem potenziellen Wert, den ein Kunde für ein Unternehmen haben kann. Der CLV beschreibt infolgedessen den Deckungsbetrag, den ein Kunde während der Kundenbeziehung realisiert. Das Ziel einer auf dem Customer Lifetime Value basierenden Vertriebs- und Marketingstrategie ist es, durch eine umfassende Kundenbetreuung nicht nur eine langfristige Kundenbeziehung aufzubauen, sondern eine echte Kundenloyalität zu erzeugen. Bekanntlich ist es günstiger, bestehende Kundenbeziehungen zu halten und auszubauen, als neue zu gewinnen. Durch die Verschiebung des Fokus – weg von der bedingungslosen Neukundenakquise hin zu einer nachhaltigen Customer Experience der Bestandskunden – gewinnen Kundenwertanalysen eine zunehmende Bedeutung für jedes Unternehmen. Im operativen Tagesgeschäft im Vertrieb wird häufig außer Acht gelassen, dass eine Kundenbetreuung rentabel bleiben muss. Gibt ein Unternehmen für einen potenziellen Neukunden oder Bestandskunden mehr aus, als dieser ihm zukünftig einbringen wird, lohnen sich diese Ausgaben nicht. Der Customer Lifetime Value unterstützt bei der Planung des Budgets und der Ressourcen, indem er darstellt, welchen Wert eine Kundenbeziehung für das Unternehmen derzeit hat und in Zukunft haben wird. Je nachdem, welcher Wert ermittelt wird, können die Budgets gezielt erhöht, reduziert oder gleich bleiben. Der CLV zeigt darüber hinaus an, ob die Kundenbindungsstrategie eines Unternehmens erfolgreich und nachhaltig ist.
Der Customer Lifetime Value wird mit verschiedenen Methoden berechnet und baut auf wichtigen Kennzahlen auf wie z. B. dem durchschnittlichen Auftragswert (Umsatz) und/oder durchschnittlichen Deckungsbeitrag. Hinzu kommen die Anzahl der wiederholenden Umsätze pro Jahr. Dem werden die Akquisitionskosten für Neukunden sowie die Betreuungskosten für Bestandskunden gegenüber gestellt. Hierzu gehören direkte und indirekte Kosten wie z. B. Außendienstbetreuung, Rabatte und Aktionen sowie Marketingunterstützung, technischer Support oder Kulanz bei Reklamationen usw. Im dritten Schritt werden die Anzahl der Kunden zu einem bestimmten Endzeitpunkt sowie die Anzahl der Kunden, die in dem Zeitfenster neu dazugewonnen wurden und die Anzahl der Kunden, die zum Beginn des Zeitfensters bereits vorhanden waren, ermittelt. Das Zeitfenster beträgt in der Regel ein Jahr (in der Regel ein Geschäftsjahr).
Customer Profiling
C wie Customer Profiling
Der Begriff Customer Profiling beschreibt die Erstellung, Verwendung und permanente Aktualisierung von Kundenprofilen, die aus generierten Kundendaten (Big Data, Data Lake, Smart Data) stammen. Diese werden identifiziert, analysiert und bewertet (Scoring), um eine optimale Kundenansprache in Vertrieb und Marketing sowie Potenzialausschöpfung (virtuelle Warenkörbe) zu erzielen. Die Grundlage im Customer Profiling bieten sieben Faktoren:
- Statische Faktoren wie z. B. sozioökonomische Faktoren (z. B. Bildung, Einkommen oder sozialer Status) und demografische Faktoren (z. B. Alter oder Geschlecht)
- Dynamische Faktoren wie psychografische Faktoren (z. B. Handlungsmotive oder Life-Style), behavioristische Faktoren (z. B. Handlungsmuster oder Art der Beschaffung von Informationen), geografische Faktoren (z. B. Bewegungsprofile oder Bewegungsradien), kontextuelle Faktoren (z. B. persönliches Umfeld oder Emotionen) und technologische Faktoren (z. B. Technikaffinität oder Techniknutzung).
Cyber-physische Systeme (CPS)
C wie Cyber-physische Systeme (CPS)
Der zentrale Erfolgsfaktor zur Verbindung der digitalen und physischen Welt in der Zukunft der maschinellen Arbeit (Industrie 4.0) liegt in den so genannten cyber-physischen Systemen (CPS). Diese bezeichnen den Verbund von informations- und softwaretechnischen Komponenten mit mechanischen und elektronischen Komponenten, die über eine Dateninfrastruktur (in der Regel dem Internet) kommunizieren. Dabei werden zum einen Daten ausgetauscht und zum anderen Steuerung und Kontrolle über eine Infrastruktur behalten. Das Besondere ist nicht der Datentransfer an sich, sondern die Geschwindigkeit, mit der diese Aktionen erfolgen. CPS werden eingesetzt, um in Echtzeit mobile und bewegliche Einrichtungen, Geräte und Maschinen (darunter auch Roboter), eingebettete Systeme und vernetzte Gegenstände (Internet of Things) zu steuern. Ein cyber-physisches System entsteht aus der Vernetzung eingebetteter Systeme durch drahtgebundene oder drahtlose Kommunikationsnetze und ist durch einen hohen Grad an Komplexität gekennzeichnet. Fast alle kritischen und systemrelevanten Infrastrukturen enthalten cyber-physische Systeme: Stromerzeugung und -verteilung, Trinkwassererzeugung, Lüftungssysteme in Tunneln, U-Bahnen, Zügen und Flugzeugen, militärische Systemvernetzungssysteme sowie Infrastruktursysteme für Kommunikation und Kultur wie z. B. große Veranstaltungsarenen, Verkehrssteuerungs- und Verkehrslogistiksysteme. Hinzu kommen vernetzte Sicherheits- sowie Fahrerassistenzsysteme für Automobile, industrielle Prozesssteuerungs- und Automationssysteme und medizinische Geräte, bei denen eine hohe Zuverlässigkeit verlangt wird. Deshalb sind resiliente Systemarchitekturen notwendig, die trotz unvorhergesehener Auswirkungen von gegenseitigen Abhängigkeiten das gewünschte Systemverhalten sicherstellen.
Cyber-physische Systeme sind extrem anpassungs- und wandlungsfähig und tragen zur Effizienzsteigerung bei. Durch die Vernetzung und die beliebige An- und Einordnung von Daten, Informationen und Diensten können verschiedene Potenziale zukünftig schneller erkannt und effizienter genutzt werden. Ob bei der Datengewinnung und -verarbeitung oder der automatischen Optimierung von Systemen und Personalkapazitäten: Prozesse von cyber-physischen Systemen laufen weitgehend autonom und automatisiert, ohne dass der Mensch eingreifen muss. Diese erfüllen oftmals nur noch Kontroll- und Steuerungsfunktionen. Auch die Arbeitssicherheit, die Geschwindigkeit von Abläufen und die Effizienz von Prozessen lässt sich mit den Cyber-physischen Systemen steigern.
Cynefin-Modell
C wie Cynefin-Modell
Das Cynefin-Modell (oder auch -Framework oder -Matrix) wurde 1999 im Kontext von strategischer Organisationsentwicklung vom ehemaligen IBM-Mitarbeiter und Berater Dave Snowden entwickelt. Das walisische Wort “Cynefin” wird sinngemäß mit „Lebensraum” oder „Platz“ übersetzt, obwohl diese Übersetzung nicht seine volle Bedeutung vermitteln kann. Cynefin steht metaphorisch für die Einsicht, dass jedes Individuum und jedes System das Ergebnis seiner eigenen Entwicklungsgeschichte ist bzw. mehrere Vergangenheiten hat. Snowden wählte diesen Begriff, um die evolutionäre Natur komplexer Systeme zu veranschaulichen, inklusive der ihr innewohnenden Unsicherheit.
Das Cynefin-Modell unterscheidet fünf Domänen und schlägt kontextbezogene Lösungsstrategien vor:
- einfache Systeme (Clear, bisher Simple oder Obvious): geringe Anzahl von Informationen und Variablen, die in einer eindeutigen Ursache-Wirkungs-Beziehung stehen und für alle offensichtlich sind. Dieses System kann durch feste Regeln, Checklisten und klare Prozesse sehr einfach geführt werden (Strategie: S-C-R = Sense, Categorise, Respond). Informationen können zuverlässig weitergegeben werden (best practices).
- komplizierte Systeme (Knowable, Complicated): deutliche höhere Anzahl von Informationen und Variablen, die über eine feste Ordnung und lineare Kausalität immer noch relativ einfach geführt werden können (Strategie: S-A-R = Sense, Analyze, Respond). Die Ursache-Wirkungs-Beziehung ist nicht sofort erkennbar oder eindeutig und kann nur im Nachhinein und nicht selten nur durch eine genaue Analyse bewertet werden, für die eine hohe Expertise notwendig ist. Um komplizierte Systeme führen zu können, braucht man Experten (good practices).
- komplexe Systeme (Complex): große Anzahl von Einflussfaktoren, die in wechselseitiger Abhängigkeit stehen und eskalierende oder stabilisierende Rückkopplungen verursachen. Es existieren keine linearen Ursache-Wirkungs-Beziehungen, was die Vorhersage der richtigen Strategie erschwert. Daher empfehlen sich zur Führung komplexer Systeme emergente Strategien (emergent practices) bzw. eine “exaptive discovery”. Durch zeitlich begrenztes Ausprobieren kann man Muster erkennen und die Vorgehensweise situativ anpassen (Strategie: P-S-R = Probe, Sense, Respond).
- chaotische Systeme (Chaotic): durch eine unüberschaubare Anzahl von Einflussfaktoren, die in wechselseitiger Abhängigkeit stehen und sich extrem schnell verändern können, regiert das Chaos. Es gibt auf der Systemebene keine Beziehung zwischen Ursache und Wirkung. Die einzige valide Strategie in chaotischen „Systemen“ (besser Umgebungen) ist Neues zu probieren, schnell und entschlossen zu handeln um das System zu stabilisieren (novel practices) und somit in komplexe Systeme zu überführen (Strategie: A-S-R: Act, Sense, Respond).
- gestörte Systeme (Disorder): beschreiben den Zustand des Nicht-Wissens, welche Art von Kausalität besteht. Diese Systeme stehen im Zentrum der Cynefin-Matrix und liegen vor, wenn über den Zustand des Systems (einfach, kompliziert, komplex, chaotisch) keine Einigkeit unter den Entscheidern besteht und demzufolge unklar ist, welche Strategie angemessen ist. In der Regel passen die angewendeten Strategien nicht auf das vorhandene Umfeld. Nicht selten führt dies dazu, dass die Beteiligten sich in ihre eigene Komfortzone zurückziehen.
Die Arbeit von Snowden und seinem Team begann zunächst in den Bereichen Wissensmanagement, kultureller Wandel und Gruppendynamik. Sie befassten sich später auch mit einigen kritischen Unternehmensprozessen, wie z. B. Produktentwicklung, Markterschließung und Branding. In jüngerer Zeit umfasste ihre Tätigkeit auch Fragen der Unternehmensstrategie und der nationalen Sicherheit.
Während einfache und komplizierte Systeme durch Ordnung und lineare Kausalität gekennzeichnet sind, fehlt es dagegen in komplexen und chaotischen Systemen an einer grundlegenden Ordnung. Das daraus entwickelte Framework stützt sich auf Forschungen aus der Theorie komplexer adaptiver Systeme, der Kognitionswissenschaft und Anthropologie sowie evolutionären Psychologie und bedient sich hierbei narrativer Muster. Das Modell untersucht die Beziehung zwischen Mensch, Erfahrung und Kontext und eröffnet neue Wege für Kommunikation, Entscheidungsfindung, Richtlinienkompetenz und Konfliktmanagement in einem komplexen sozialen Umfeld. Infolgedessen muss am Anfang die Frage geklärt werden, in welchem Umfeld sich ein Unternehmen, eine Organisation, ein Team oder auch ein Projekt befindet. Man nennt dies einen “common sense” und beantwortet die Frage, ob ein geordnetes Umfeld (einfach, kompliziert) vorliegt oder ein ungeordnetes (komplex, chaotisch) bzw. im worst case ein System schon unter einer Störung leidet. Erst danach können Strukturen festgelegt, Entscheidungsprozesse definiert, Zusammenarbeit organisiert und Führungsrollen ausgestaltet werden. Die Cynefin-Matrix ist als Plattform geeignet, um Transparenz und ein gemeinsames Verständnis sowie ein geeignetes Vorgehen herzustellen. Gerade in Zeiten dynamischer Veränderungen deckt das Cynefin-Modell auf, warum funktionale, auf starren Regelwerken und Hierarchien basierende Organisationen in komplexen Umgebungen ausgedient haben. Diese Erkenntnis gilt sowohl für allgemeine Prozesse der Unternehmenssteuerung wie Strategieentwicklung, als auch für Organisationsentwicklung oder Projektmanagement. Emergente und adaptive Strategien erfordern kleine und selbstorganisierte Teams, dezentrale Entscheidungen und kurze Iterationszyklen. Das Cynefin-Modell erklärt darüber hinaus die Notwendigkeit einer kontextbezogenen Führung. Der Kontext leitet sich hierbei nicht aus einer konkreten Situation ab, sondern dem allgemeinen Umfeld. Während in herkömmlichen Organisationen weiterhin auf gewohnte “Management Best Practices” wie Lenkungsausschüsse, Arbeitskreise, Jour Fixes usw. gesetzt wird, braucht man in komplexen Umgebungen ein völlig neues Führungsverständnis (Servant Leadership). Dieses Verständnis ist geprägt von der Einsicht “nichts zu wissen”, Kommunikation auf Augenhöhe, aktivem Zuhören und der Bereitschaft, Mitarbeiter darin zu befähigen, mehr Verantwortung zu übernehmen und eigene Entscheidungen zu treffen.
Des Weiteren wird das Cynefin-Modell auch angewendet, um Innovationen erfolgreich zu entwickeln, zu implementieren und zu vermarkten. Längst sind sich Innovationsforscher einig, dass echte Innovationen im Grenzbereich zum Chaos entstehen. Gleiches bestätigen im Übrigen auch die Hirnforscher. Wenn radikale oder disruptive Innovationen mit herkömmlichen Methoden wie Business Cases, Zeit-, Budget- und Projektpläne, Analysen und Risikobewertungen umgesetzt werden sollen, sind sie zum Scheitern verurteilt.
D wie Dark Horse Prototyp
D wie Dark Horse Prototyp
Dark Horse Prototyping beschreibt eine sehr spezielle Methode im →Design Thinking und wird immer dann eingesetzt, wenn besonders verrückte Ideen oder andersartige (disruptive, radikale) Innovationen mit einem höheren Risiko entwickelt werden sollen. Erfahrungsgemäß tendieren Unternehmen eher zu →inkrementellen Innovationen, die sich naturgemäß vom Status quo wenig unterscheiden und sich an den bestehenden Lösungen orientieren. Dagegen schaffen polarisierende Ansätze meist die Potentiale mit dem größten Impact. Dark Horse Prototypen sind aufgrund ihres ergebnisoffenen Charakters besonders in der divergierenden Phase der Entwicklung und Prototypisierung von Ideen anzusetzen. Die Methode empfiehlt sich, wenn Situationen grundlegend hinterfragt werden sollen und selbst gesetzte Grenzen und gewohnte Praktiken überwunden werden sollen. Hierzu ist wichtig, dass im Team ohne Denkverbote und limitierende Faktoren die interessantesten, herausforderndsten und aufregendsten Ideen ausgewählt werden. Die Herausforderung besteht darin, auch unvorstellbare Visionen zuzulassen. Anschließend wird ein Prototyp erstellt und die Stärken, Schwächen und Potentiale im Team analysiert.
Der Begriff Dark Horse ist an den Pferderennsport angelehnt, bei dem das „Schwarze Pferd“ die niedrigsten Aussichten auf den Sieg hat und somit gleichzeitig den größten Gewinn erzielen würde.
D wie DARPA
DARPA ist das Akronym für Defense Advanced Research Projects Agency. Diese Forschungs- und Entwicklungsbehörde des US-Verteidigungsministeriums ist für die Entwicklung neuer Technologien verantwortlich und geht auf die ursprüngliche ARPA (Advanced Research Projects Agency) zurück, die im Februar 1958 von Präsident Dwight D. Eisenhower als Reaktion auf den sowjetischen Start von Sputnik 1 im Jahr zuvor gegründet wurde. Durch die Zusammenarbeit von Wissenschaft und Forschung, Industrie und ausgewählten Schlüsselpartnern definiert, formuliert und koordiniert DARPA verschiedene Forschungs- und Entwicklungsprojekte, um bahnbrechende Technologien zu entwickeln und die Grenzen von Technologie und Wissenschaft zu erweitern. Auch das →ARPA-Net, aus dem sich später das Internet entwickelte, war in dieser Forschungs- und Entwicklungsbehörde angesiedelt und zu Beginn als militärisches Projekt angelegt. Die DARPA hat zudem wesentlichen Anteil an der Entwicklung von Personal Computer, GPS, Wettersatelliten, Stealth-Technologie, Drohnen, Sprachschnittstellen u. a.
D wie Data Lake
Der Begriff Data Lake beschreibt die Speicherung von Daten in ihrem Rohformat. Diese Rohdaten werden erst in ein anderes Format umgewandelt, wenn sie verwendet werden. Dies nennt man auch Schema-on-Read und ist ein kostengünstiges, schnelles Verfahren. Für entsprechende Analysen im Big Data ist dies ein guter Ausgangspunkt, da diese Plattform auch als Data-Management genutzt werden kann.
D wie Data Mining
Unter Data Mining versteht man die systematische Anwendung von computergestützten Methoden und Algorithmen zur möglichst automatischen Extraktion empirischer Daten, um in vorhandenen Datenbeständen Muster, Trends und/oder Zusammenhänge zu finden. Zur Wissensentdeckung eingesetzte Algorithmen basieren u. a. auf statistischen Methoden. Diese kommen bei der Potenzialanalyse zum Einsatz, um z. B. typische Warenkörbe zu analysieren (z. B. welche Produkte werden häufig zusammen gekauft oder in welchem Zusammenhang oder welche Faktoren sind ausschlaggebend für Kunden- und Markenloyalität). Weitere Anwendungen sind z. B. Charakterisierungsaussagen wie z. B. der Bestimmung von Erfolgsdeterminanten eines Web-Auftritts. Data Mining kommt zunehmend zum Einsatz, da Unternehmen erkennen, dass die gesammelten und verfügbaren Daten z. B. über das ERP- und/oder CRM-System für strategische Entscheidungen sowie im operativen Management eher ungeeignet sind und effiziente Analyseinstrumente fehlen, um aus den Datenmengen die relevanten Informationen für Entscheidungsträger zu extrahieren. Die Verwendung von statistischer Signifikanz reicht hierzu nicht aus. Beim Data Mining kommen integrierte Methoden und Verfahren der Künstlichen Intelligenz und der Statistik sowie Modelle des Anwendungsbereiches zum Einsatz. Im Gegensatz zu den klassischen Methoden reduziert sich Data Mining nicht nur auf die Prüfung manuell aufgestellter Hypothesen, sondern erweitert den Ansatz durch Generierung neuer Hypothesen.
Data Mining setzt sich zusammen aus den Komponenten Datenzugriff, dem Modelltyp, dem Interessantheitsmaß und dem Suchverfahren. Der Prozess ist Teil des so genannten Knowledge Discovery in Databases (KDD). Häufig werden die Begriffe →Big Data und Data Mining im gleichen Kontext verwendet, was nicht korrekt ist. Big Data befasst sich mit besonders großen Datenmengen, die mit herkömmlichen Methoden und Tools nicht effizient verarbeitet werden können. Data Mining kommt zwar auch bei großen Datenmengen zum Einsatz, ist aber nicht auf Big Data beschränkt. Denn Data Mining erweitert den eigentlichen Vorgang um die Analyse von Daten in Bezug auf relevante Zusammenhänge und Erkenntnisse. Während Big Data große Datenmengen liefert und die geeignete technische Plattform für eine effiziente Verarbeitung zur Verfügung stellt, konzentriert sich Data Mining auf den eigentlichen Vorgang der Gewinnung von Erkenntnissen aus den vorliegenden Daten.
D wie DBaaS (Database as a Service)
DBaaS steht für Database as a Service und bezeichnet einen Service, bei dem Unternehmen ihre Datenbanken oder -systeme nicht mehr über die eigene Infrastruktur betreiben und durch eigene Mitarbeiter betreuen, sondern diese über eine Cloud eines Dienstleisters bereitgestellt bekommen. Dies spart personelle und technische Kapazitäten und somit Kosten. Außerdem können Unternehmen auf das Know-how und die Erfahrung des Anbieters zurückgreifen. Eine gesicherte Netzwerkverbindung sorgt dafür, dass alle Mitarbeiter und Programme jederzeit Zugang zu allen relevanten Informationen haben. Die Abrechnung erfolgt in Form eines nutzungsbezogenen Tarifs.
Database as a Service ist artverwandt mit →Platform as a Service oder →Infrastructure as a Service.
D wie De Bono
→6 Hüte Methode
D wie Deep Tech
Der Begriff Deep Tech taucht vor allem im Umfeld von Startups und Innovationen auf und bezeichnet innovative Technologien in vielen Bereichen. „Tech“ steht eindeutig für „Technologie“, während „Deep“ eine multidimensionale Bedeutung hat. Im Gegensatz zu anderen Technologieunternehmen, die auf bestehende Software zurückgreifen oder diese modifizieren und bei denen Technologie nur Mittel zum Zweck ist und nicht den Kern des eigentlichen Geschäftsmodells darstellt, steht die Technologie bei Deep Tech-Startups dagegen im Mittelpunkt. Des Weiteren ist typisch, dass deren Lösungen in der Regel für den B2B-Bereich entwickelt werden und einen hohen Innovationsgrad aufweisen. In einigen Fällen wird der Begriff Deep Tech auch synonym für Denkfabriken und/oder bahnbrechende wissenschaftliche oder technische Erkenntnisse verstanden. Unternehmen, die in diesem Bereich entwickeln oder ein Geschäftsmodell aufbauen, stehen häufig an der Schwelle zu bedeutenden Durchbrüchen, die auf Jahre den Markt beeinflussen oder auf Jahrzehnte verändern können. „Deep“ steht hierbei synonym für das Potenzial an Möglichkeiten, weshalb Deep Tech-Startups häufig in Verbindung mit künstlicher Intelligenz (KI) und maschinellem Lernen („Deep Learning“) erwähnt werden.
D wie Deep Work
→ Time Boxing
D wie Deep Work Hypothese
Deep Work ist grundsätzlich keine neue Arbeitsmethode. Die Deep Work Hypothese dagegen wurde von Professor Cal Newport entwickelt und beschreibt eine hoch konzentrierte Arbeit für etwa vier Stunden, bei der man sich ohne Ablenkung oder Unterbrechung auf kognitiv anspruchsvolle Aufgaben konzentriert und somit wertvolle Ergebnisse in kürzerer Zeit erzielt. Die höchste Stufe wird erreicht, wenn die Ergebnisse schwer zu kopieren sind und einen unersetzlichen Mehrwert bieten. Newport ist überzeugt, dass dadurch die Sinnhaftigkeit der eigenen Arbeit auf einen hohen Level gehoben werden kann.
Das Gegenteil wird als Shallow Work bezeichnet: anspruchslose Arbeit, die keine speziellen Fähigkeiten oder Konzentration verlangt, sondern oberflächlich ist. Hierzu gehören unproduktive Meetings, der erfolglose Rückruf von Telefonaten, das Verfassen von operativen E-Mails, das Erstellen von Reporting oder Präsentationen, das Folgen von Social-Media-Kanälen und dgl. Der „Klassiker“ für unproduktive Arbeit ist das permanente Checken, Lesen und Beantworten von E-Mails. Lt. einer Studie der Harvard Business School-Professorin Leslie Perlow verbringen ca. 80% der Berufstätigen mehr als zwanzig Stunden pro Woche nur damit, ihren E-Mail-Account zu überwachen und zu reagieren. Oberflächliche oder anspruchslose Arbeit kann in Ausnahmen sogar hilfreich sein, wenn sie z. B. die Möglichkeit zur Entspannung oder Entschleunigung bietet. Wichtig ist nur, dass diese meist routinemäßigen Aufgaben keine höhere Bedeutung bekommen als die wichtigen Aufgaben mit Gestaltungs- und Entscheidungscharakter.
Professor Carl Newport ist überzeugt, dass in einer zunehmend wettbewerbsorientierten Arbeitswelt die High Performer über zwei grundlegende Fähigkeiten verfügen: sie können sich komplexe Themen und schwierige Dinge schnell aneignen, um spezifische Fähigkeiten und bestimmte Fertigkeiten zu beherrschen und auszuführen. Außerdem können sie qualitativ hochwertige Ergebnisse erzielen und einen intellektuellen Mehrwert schaffen. Die Deep Work Hypothese basiert auf der Formel für die Produktion von Qualität auf höchstem Niveau: Hochwertige Arbeit = (aufgewendete Zeit) x (Intensität der Konzentration). Um diese zu operationalisieren, schlägt Newport u. a. vor, die Aktivitäten in den sozialen Netzwerken auf max. 15 min. pro Tag in die Randzeiten zu verlagern und seinen Arbeitstag in Blöcke zu strukturieren und im Abgleich mit dem Bio-Rhythmus einzuteilen.
D wie Delphi-Methode
Die Delphi-Methode kommt in der Zukunftsforschung zum Einsatz, auch wenn sie hierfür ursprünglich nicht entwickelt wurde. Die Anlehnung an das Orakel im altgriechischen Delphi ist tatsächlich kein Zufall. Bei der Delphi-Methode werden Interviews nach den Regeln der empirischen Sozialforschung mit mehreren Personen in mehreren Intervallen durchgeführt und ausgewertet. Anschließend werden die Ergebnisse verdichtet und in aufbereiteter Form zur erneuten Bewertung an dieselben Personen oder einen erweiterten Empfängerkreis gesendet. Die zweite Runde dient dazu, die Aussagen zu schärfen, ggf. durch neue Erkenntnisse anzureichern, verschiedene Aussagen zu priorisieren oder bei Widersprüchen abzuwägen und/oder nach zu justieren. In seltenen Fällen werden noch weitere Runden durchgeführt, wenn das Ergebnis der zweiten Welle noch nicht zufriedenstellend hinsichtlich der Forschungsfrage(n) war. Mit der Delphi-Methode bekommt die Meinungsforschung breite und tiefe Einblicke durch mehrere Menschen mit relevantem Fachwissen.
D wie Deming-Zyklus
→PDCA-Zyklus
D wie Demografie
Demografie ist die Mutter aller →Megatrends. Die Veränderungen der globalen Bevölkerungsstruktur wie z. B. das Wachstum, die Verschiebung der Alterspyramide, radikal andere Prioritäten der jüngeren Generation, die Dichte, ethnische Zugehörigkeit, Migrationsdruck sowie unterschiedliches Bildungsniveau und viele andere demografische Aspekte führen zu signifikanten und nachhaltigen Veränderungen in allen Bereichen der Gesellschaft, der Wirtschaft und im Berufsleben.
Nach Prognosen der Vereinten Nationen wird die Weltbevölkerung bis 2030 um mehr als eine Milliarde Menschen wachsen, wobei ein Großteil dieses Wachstums in Schwellenländern stattfinden wird. Bis zum Jahr 2050 werden 80 Prozent der Weltbevölkerung im Alter von unter 60 Jahren in Ländern leben, die aktuell noch als weniger entwickelt gelten. Durch diese so genannten Emerging Markets verschieben sich die wirtschaftlichen Kräfteverhältnisse rund um den Globus. Gleichzeitig werden die Menschen immer älter, so dass sie länger im Ruhestand leben mit erheblichen Konsequenzen für das Gesundheitswesen und der wirtschaftlichen Herausforderung für eine angemessene Versorgung. Konkret bedeutet dieses Wachstum der Weltbevölkerung der über 65-Jährigen von 1,5 auf über 2 Mrd. Menschen, dass gleichzeitig die Zahl der Arbeitnehmer pro Rentner abnimmt (von aktuell 8 auf 4). Nach Analysen des Weltwirtschaftsforums wächst die Lücke in der Altersvorsorge in den acht großen Volkswirtschaften jeden Tag um 28 Mrd. US-Dollar und werden bis zum Jahr 2050 unfassbare 400 Billionen US-Dollar betragen. Dies wäre etwa das Fünffache des aktuellen Umfangs der Weltwirtschaft. Verstärkt wird das Problem der Überalterung dadurch, dass vor allem in den reicheren und gebildeteren Teilen der Gesellschaft immer weniger Kinder geboren werden. Während man noch vor einigen Jahren vor allem die westliche Welt als Hauptproblem der Überalterung ansah, entwickelt sich zunehmend der asiatische Raum als Hotspot. Bereits heute gibt es mehr über 65-Jährige in Asien als Menschen in den USA. Prognosen zufolge wird die Zahl der über 65-Jährigen in Asien bis 2045 sogar größer sein als die Bevölkerung in der Eurozone und Nordamerika zusammen.
Die mittel- bis langfristigen Auswirkungen dieser globalen demografischen Veränderungen werden sich in allen Bereichen bemerkbar machen. Die größten Auswirkungen werden sich in den Gesundheitsausgaben ergeben. Man schätzt, dass die Gesundheitsausgaben in älter werdenden Industrieländern im Jahr 2040 bis 2050 zwischen 5 und 10 Prozent des Bruttoinlandsproduktes liegen werden. Gleichzeitig wird der Markt für medizinische Technologien und Dienstleistungen rasant wachsen. Defizite infolge der demografischen Veränderungen werden Unternehmen zunehmend durch Technologie wie →Automation, →Robotik und →Künstliche Intelligenz kompensieren. Eine besondere Stellung werden sensitive, kollaborierende Roboter, so genannte →Cobots, einnehmen.
D wie Der perfekte Sturm
Bei der Gefahr einer weltweiten Rezession (mindestens müssen Europa, die USA und China betroffen sein) spricht man von „Dem perfekten Sturm“. Die Bezeichnung wurde von dem US-Ökonom Kenneth Rogoff erstmals erwähnt und dient Ökonomen als Vorlage, wenn verschiedene Ereignisse gleichzeitig auftreten und ganze Volkswirtschaften in den Abgrund ziehen können. Die Vorlage liefert der gleichnamige Weltbestseller des Romanautors Sebastian Jungers, der von Star-Regisseur Wolfgang Petersen auf die Kinoleinwand projiziert wurde. „Der perfekte Sturm“ ist die Geschichte eines Fischerboots, das vor der Ostküste der USA in ein Wetterphänomen gerät, das nur alle hundert Jahre vorkommt. Mehrere Naturkatastrophen – jede für sich allein bereits eine zerstörende Naturgewalt – treffen aufeinander und richten großes Unheil an. Der „perfekte Sturm“ aus ökonomischer Sicht hat anders als die Romanvorlage gleich sieben Makrokräfte, die sich seit 2020 mit unterschiedlicher Stärke und Geschwindigkeit entwickeln und miteinander verzahnen. Hierzu gehören:
- Pandemie: Covid-19 hat die heiße Phase des Sturms eingeleitet. Eine Pandemie ähnlicher Tragweite hat die Welt seit der Spanischen Grippe vor mehr als 100 Jahren nicht mehr erlebt. Die Entschleunigung der Weltwirtschaft infolge der Corona-Krise schwächten Wirtschaft und Finanzen. Lockdowns an neuralgischen Punkten des Welthandels werden noch Jahre zu spüren sein, wenn die Pandemie längst verschwunden ist.
- Krieg: Für jüngere Menschen in der Europäischen Union war es unvorstellbar, dass auf ihrem Kontinent ein Krieg stattfinden kann. Dieser reduziert sich nicht mehr nur auf militärische Handlungen, sondern ist zu einem Wirtschaftskrieg mutiert, in dem es vor allem um Energielieferungen in den Westen und Getreidelieferungen in die ganze Welt geht. Deutschland trifft die reduzierten bis ausbleibenden Gaslieferungen besonders hart.
- Inflation: Lt. Statistischem Bundesamts sind die Preise für Waren und Dienstleistungen im Oktober 2022 um ca. 10 Prozent teurer gewesen als im vergleichbaren Vorjahresmonat und damit auf einem Höchststand seit 1950. Preistreiber für Gas, Heizöl und Benzin sowie einige Lebensmittel ist der Krieg in der Ukraine. Unabhängig davon steigen vor allem in den Ballungsgebieten nach wie vor die Mieten. Diese Preiserhöhungen schlagen sich in der Inflationsrate nieder. Hinzu kommt der Zinskurs der Zentralbank (EZB) und Politik der Notenbanken sowie die finanziellen Folgen der Pandemie.
- Zinsen: Als Reaktion auf die Inflation heben die Zentralbanken die Zinsen an. Allerdings zu spät und nicht konsequent, wie führende Ökonomen kritisieren. Entweder heben Zentralbanken die Zinsen zu zögerlich an und somit ohne nennenswerte Effekte oder zu großzügig und riskieren das Abwürgen des Wirtschaftswachstums, weil Kredite für Investitionen zu teuer werden. Die Folge wäre eine Rezession.
- Arbeitsmarkt: Viele Unternehmen befinden sich aktuell in einem Dilemma. Die einen können sich die Energiekosten nicht mehr leisten, den anderen fehlt Material für ihre Produkte. Fehlender Absatz führt zu deutlichen Umsatzrückgängen bei gleichzeitig steigenden Kosten. Die Folge: ein Arbeitskräfteüberschuss bei gleichzeitigem Fachkräftemangel lässt den Arbeitsmarkt kollabieren. Entlassungen und Kurzarbeit treffen Arbeitnehmer, deren Schulden durch die Zinsentwicklung rasant ansteigen. Pandemiebedingt (Lockdowns) trifft dies vor allem den Niedriglohnsektor.
- Materialbeschaffung: Die Pandemie wurde zum Brennglas für die hohe Abhängigkeit von Rohstoffen und Materialien aus Asien. Viele Waren hängen in Containern in irgendwelchen Häfen fest. Pandemiebedingt wurden viele Arbeitskräfte abgebaut, die nun erst wieder langsam aufgebaut werden müssen. Der Krieg in der Ukraine zeigt die hohe Abhängigkeit fossiler Rohstoffe aus Russland und ist Preistreiber für energieintensive Produkte. Dies führt u. a. auch zu Einbrüchen in der Bau- und Immobilienbranche. Materialengpässe, hohe Zinsen und hohe Baukosten stellen für viele Bauherren ein unkalkulierbares Risiko dar.
- Geostrategische Gefahr: Der Krieg in der Ukraine und seine wirtschaftlichen und politischen Folgen verdeutlichen, dass ein totalitäres Regime zu einem unberechenbaren Risiko werden kann. Neben Russland wird auch China zu einem unkalkulierbarem Partner. Beide Supermächte streben nach einer neuen Weltordnung, was die USA auf den Plan ruft und eigene Interessen hervorruft. Europa und Deutschland mit seinen Abhängigkeiten von diesen Supermächten hat aktuell wenig entgegen zu setzen. Die unterschiedlichen Interessen innerhalb der EU machen einen Gegenpol nicht einfacher.
Wie in der Romanvorlage „Der perfekte Sturm“ treffen auch wirtschaftspolitisch seltene Faktoren und Ereignisse aufeinander und haben eine Situation geschaffen, die kaum hätte schlimmer werden können und die es so noch nicht gegeben hat. Die sieben Makrokräfte und ihre Auswirkungen auf die globale Wirtschaft sind beispiellos und treten in einer Zeit auf, die ohnehin schon durch Disruption und Ungewissheit geprägt war.
D wie Design Thinking
Design Thinking ist ein markt- und kundenzentrierter sowie iterativer Ansatz für die Lösung von komplexen Problemen und zur Entwicklung neuer Ideen. Im Gegensatz zu anderen Innovationsmethoden wird Design Thinking nicht als Methode oder Prozess, sondern als Ansatz beschrieben, der auf den Grundprinzipien Team, Raum und Prozess sowie der Abwägung von Nutzen und Wirtschaftlichkeit, technologische Umsetzbarkeit und Marktrelevanz beruht. Die Namensgebung wird auf die Arbeitsweise von Designern zurückgeführt, die bei ihrer Arbeit einem intuitiven Prozess folgen, der im Kern auf Beobachtung und einer hohen Nutzerzentrierung basiert. Mit seiner offenen, kreativen und gleichzeitig systematischen Herangehensweise bietet Design Thinking ein strukturiertes Vorgehensmodell für unterschiedliche Fragestellungen und Problembereiche. Im Zuge der Digitalisierung bietet Design Thinking eine geeignete Methode, um digitale Produkte, Services und Geschäftsmodelle zu entwickeln.
Im Kern basiert Design Thinking auf der Annahme, dass Probleme besser gelöst werden können, wenn Menschen unterschiedlicher Kompetenzen in einem die Kreativität fördernden Umfeld zusammenarbeiten, gemeinsam eine Fragestellung entwickeln, die Bedürfnisse und Motivationen von Menschen berücksichtigen und dann Konzepte entwickeln, die mehrfach geprüft (Iteration) werden. Design Thinking setzt dabei grundlegend auf Empathie.
Der Design Thinking Prozess ist das Herzstück, der Start und vor allem das Ende sind charakteristisch. Der Start beginnt mit einem “Beginners Mind” und der Haltung, dass man nichts weißt. Das Ende ist erreicht, wenn eine Idee materialisiert und konkret implementiert wurde. Der Verlauf dazwischen ist ein iterativer Prozess, in dessen Zentrum der Nutzer und seine Bedürfnisse stehen. Es existieren verschiedene Modelle des Design-Thinking-Prozesses. Am bekanntesten ist das Modell der sechs Schritte:
- Verstehen: Das Problem wird definiert und ein gemeinsames Verständnis geschafft.
- Beobachten: Die Kundenperspektive wird eingenommen und der Bedarf und die Bedürfnisse ermittelt. Absolute Kundenorientierung steht im Vordergrund.
- Standpunkt definieren: Die Ergebnisse der ersten beiden Schritte werden verdichtet und durch Techniken wie Buyer Personas oder Point-of-View validiert.
- Ideen finden: Zu Beginn der Ideenfindung steht ein allgemeines Brainstorming oder andere Kreativitätstechniken. Wichtig ist, dass es in dieser Phase keine Denkverbote gibt und jegliche Ideen ergebnisoffen zusammengetragen werden. Die Ergebnisse werden strukturiert und nach Prioritäten sortiert. Hierbei wird eine erste Gewichtung in Fragen der Effizienz, der Umsetzbarkeit oder der Wirtschaftlichkeit vorgenommen.
- Prototyp: Anschließend wird ein Prototyp erstellt. Hierzu kommen Techniken wie z. B. Wireframes, Post-its, Rollenspiele, Storyboards oder dgl. zum Einsatz. Wichtig ist, dass der Prototyp auf die Bedürfnisse des Kunden ausgerichtet ist und die Lösung seines Problems darstellt.
- Testen: Abschließend müssen die Erkenntnisse und Ergebnisse getestet werden. Funktioniert der Prototyp nicht oder entspricht er nicht den Bedürfnissen der Kunden, kann diese wieder verworfen werden. Dabei spielt Feedback eine wichtige Rolle. Es ist durchaus üblich, dass es bei neuen Produkten mehrere Testphasen gibt, bis das Produkt freigegeben werden kann.
D wie Detraktoren
Der Begriff Detraktoren beschreibt unzufriedene Kunden, die mit großer Wahrscheinlichkeit bei einem bestimmten Unternehmen oder ein bestimmtes Produkt nicht mehr kaufen werden. Diese lassen sich mithilfe von Umfragen für den →Net-Promoter-Score identifizieren. Detraktoren sind deshalb ein Problem für Unternehmen, da sie in der Regel ihre Unzufriedenheit nicht nur für sich behalten, sondern diese auch anderen mitteilen und somit evtl. andere Kunden davon abhalten können, zukünftig mit der Marke zu interagieren. Deshalb wiegt die Kritik von Detraktoren in der Regel schwerer als die Unterstützung von →Promotoren. Detraktoren können aber auch von Nutzen sein, wenn ihr negatives Feedback genutzt wird, um Verbesserungen bzgl. des Produktes, des Services oder des Unternehmens allgemein vorzunehmen. Idealerweise schafft man es, Detraktoren in Promotoren umzuwandeln.
D wie DGNB
Die Deutsche Gesellschaft für Nachhaltiges Bauen (DGNB) definiert in Deutschland die Standards für →nachhaltiges Bauen, auch →Green Building genannt. Ein Team aus Architekten, Bauunternehmern und Wissenschaftlern entwickelt konzeptionelle Ziele und bewertet nachhaltige Gesamtkonzepte anhand ihrer ökologischen, ökonomischen, sozialkulturellen und funktionalen Qualität. Hierbei werden keine Einzelmaßnahmen bewertet, sondern Abhängigkeiten und Wechselwirkungen über kompletten Lebenszyklus. Erreicht ein Neubau- oder Bestandsprojekt die Zielwerte, wird das Gütesiegel „Nachhaltiges Bauen“ verliehen, das die DGNB in den Kategorien Bronze, Silber, Gold und Platin vergibt. Die Nachweisführung für das Bauen im Bestand ist deutlich einfacher, da auf echte Daten zurück gegriffen werden kann, während für Neubauten aufwändige Simulationen durchgeführt werden müssen.
D wie DGSVO (Datenschutz-Grundverordnung)
Die Datenschutz-Grundverordnung (DSGVO) ist eine Verordnung der Europäischen Union, mit der die Regeln zur Verarbeitung personenbezogener Daten europaweit vereinheitlicht und geregelt werden. Sie trat am 25. Mai 2018 unmittelbar in allen EU-Mitgliedsstaaten in Kraft. Das oberste Ziel ist der Schutz personenbezogener Daten innerhalb der Europäischen Union sowie die Gewährleistung des freien Datenverkehrs innerhalb des Europäischen Binnenmarktes. Die DSGVO besteht aus 99 Artikeln in elf Kapiteln:
- Kapitel (Artikel 1 bis 4): Allgemeine Bestimmungen (Gegenstand und Ziele, sachlicher und räumlicher Anwendungsbereich, Begriffsbestimmungen)
- Kapitel (Artikel 5 bis 11): Grundsätze und Rechtmäßigkeit (Grundsätze und Rechtmäßigkeit der Verarbeitung personenbezogener Daten, Bedingungen für die Einwilligung, Verarbeitung besonderer Kategorien personenbezogener Daten)
- Kapitel (Artikel 12 bis 23): Rechte der betroffenen Person (Transparenz und Modalitäten, Informationspflichten des Verantwortlichen und Auskunftsrecht der betroffenen Person zu personenbezogenen Daten, Berichtigung und Löschung – das „Recht auf Vergessenwerden“ – Widerspruchsrecht und automatisierte Entscheidungsfindung im Einzelfall einschließlich Profiling, Beschränkungen)
- Kapitel (Artikel 24 bis 43): Verantwortlicher und Auftragsverarbeiter (Allgemeine Pflichten, Sicherheit personenbezogener Daten, Datenschutz-Folgenabschätzung und vorherige Konsultation, Datenschutzbeauftragter, Verhaltensregeln und Zertifizierung)
- Kapitel (Artikel 44 bis 50): Übermittlungen personenbezogener Daten an Drittländer oder an internationale Organisationen
- Kapitel (Artikel 51 bis 59): Unabhängige Aufsichtsbehörden
- Kapitel (Artikel 60 bis 76): Zusammenarbeit und Kohärenz, Europäischer Datenschutzausschuss
- Kapitel (Artikel 77 bis 84): Rechtsbehelfe, Haftung und Sanktionen
- Kapitel (Artikel 85 bis 91): Vorschriften für besondere Verarbeitungssituationen (u. a. Verarbeitung und Freiheit der Meinungsäußerung und Informationsfreiheit, Datenverarbeitung am Arbeitsplatz, Zugang der Öffentlichkeit zu amtlichen Dokumenten, Verarbeitung zu im öffentlichen Interesse liegenden Archivzwecken, zu wissenschaftlichen oder historischen Forschungszwecken und zu statistischen Zwecken, bestehende Datenschutzvorschriften von Kirchen und religiösen Vereinigungen oder Gemeinschaften)
- Kapitel (Artikel 92 bis 93): Delegierte Rechtsakte und Durchführungsrechtsakte
- Kapitel (Artikel 94 bis 99): Schlussbestimmungen (u. a. Aufhebung der Richtlinie 95/46/EG und Inkrafttreten der DSGVO)
Unter dem Begriff der „personenbezogenen Daten“ werden alle Informationen zusammen gefasst, die sich auf eine identifizierte oder identifizierbare natürliche Person beziehen. Als identifizierbar wird eine natürliche Person angesehen, die direkt oder indirekt, insbesondere mittels Zuordnung zu einer Kennung wie einem Namen, zu einer Kennnummer, zu Standortdaten, zu einer Online-Kennung oder zu einem oder mehreren besonderen Merkmalen, die Ausdruck der physischen, physiologischen, genetischen, psychischen, wirtschaftlichen, kulturellen oder sozialen Identität dieser natürlichen Person sind, identifiziert werden kann. Übersetzt heißt dies, dass hierzu alle Angaben zu einer Person wie Namen, Geburtstag, Wohnort bzw. Adressen, medizinische Daten, Fotos, E-Mail-Adressen, Bankdaten bis zu Beiträgen in den sozialen Netzwerken oder auch IP-Adressen zählen. Daten, aus denen die ethnische Herkunft, politische Meinungen, religiöse oder weltanschauliche Überzeugungen, die Gewerkschaftszugehörigkeit sowie genetische Daten, Gesundheitsdaten und Daten oder Angaben zur sexuellen Orientierung einer natürlichen Person hervorgehen, dürfen nicht verarbeitet werden. Hierbei wird zwischen personenbezogenen Daten im privaten, öffentlichen oder arbeitsbezogenen Umfeld einer Person nicht unterschieden – es geht immer um die Person selbst.
Des Weiteren gilt, dass die Verarbeitung personenbezogener Daten nur aufgrund einer aktiven Erlaubniserteilung zulässig ist. Diese sind in Art. 6 aufgeführt, wovon mindestens einer erfüllt sein muss:
- die betroffene Person hat ihre Einwilligung gegeben
- die Verarbeitung ist für die Erfüllung eines Vertrags oder zur Durchführung vorvertraglicher Maßnahmen erforderlich
- die Verarbeitung ist zur Erfüllung einer rechtlichen Verpflichtung erforderlich
- die Verarbeitung ist erforderlich, um lebenswichtige Interessen zu schützen
- die Verarbeitung ist für die Wahrnehmung einer Aufgabe erforderlich, die im öffentlichen Interesse liegt
- die Verarbeitung ist zur Wahrung der berechtigten Interessen des Verantwortlichen oder eines Dritten erforderlich.
Im letzten Fall ist eine Interessensabwägung gegenüber den Interessen der betroffenen Person erforderlich.
Für Unternehmen hat die DSGVO erhebliche Auswirkungen, nicht nur im Marketing und Vertrieb, sondern auch im HR-Bereich. Für die Nichteinhaltung der Grundsätze und Rechenschaftspflicht können Unternehmen mit einem Bußgeld in Höhe von bis zu 20 Millionen EUR oder bis zu 4% seines gesamten weltweit erzielten Jahresumsatzes geahndet werden. Das europäische Datenschutzrecht gilt auch für Unternehmen außerhalb der EU, soweit diese ihre Waren oder Dienstleistungen im europäischen Markt anbieten. Somit greift die DSGVO auch für die US-amerikanischen Internet-Konzerne.
Betroffene Personen müssen darauf vertrauen dürfen, dass Unternehmen bei der technischen Gestaltung („privacy by design“, „data protection by design“) sowie durch datenschutzfreundliche Voreinstellungen („privacy by default“, „data protection by default“) die grundsätzlichen Anforderungen an den geforderten Datenschutz von der ersten Nutzung an sicherstellen.
Eines der zentralen Anliegen der DSGVO ist das Recht auf Vergessenwerden, das in der Überschrift des Art. 17 ausdrücklich so genannt wird. Es umfasst einerseits, dass eine betroffene Person das Recht hat, das Löschen aller sie betreffenden Daten zu fordern, wenn die Gründe für die Datenspeicherung entfallen. Dabei ist zu beachten, dass der Verantwortliche Daten von sich aus löschen muss, wenn die Rechtsgrundlage für die weitere Verarbeitung entfallen ist. Juristen sind weiterhin uneins, ob z. B. gesetzliche Aufbewahrungspflichten für Unternehmen dem entgegenstehen können. Generell kommt von Medienrechtlern grundsätzliche Kritik an der neuen Datenschutz-Grundverordnung. Diese bemängeln, dass die Verordnung viele Themen und Herausforderungen für den Datenschutz in Suchmaschinen, Sozialen Netzwerken, Big Data und Smart Data, Cloud Computing bis hin zur Künstlichen Intelligenz ignoriert, unterschätzt oder als nicht umsetzbar gestaltet. Auch der Deutsche Anwaltverein sieht Änderungsbedarf, da die vom Gesetzgeber geforderten berufsspezifischen Rechte und Pflichten der Rechtsanwälte nur mit den in der DSGVO hinterlegten Öffnungsklauseln möglich ist, um ein Mandat rechtskonform sicherstellen zu können.
Ein bisher wenig beachtetes Problem ergibt sich aus der Datenerhebung vor Inkrafttreten der DSGVO für die langfristige Speicherung und Weiterverarbeitung personenbezogener Daten wie dies insbesondere in den Bereichen Business Intelligence, Data Warehouse und Machine-Learning der Fall ist. Hierzu gehören u. a. die Interaktion mit Kampagnen und Kanälen, Kaufhistorien, Nutzerinteressen, Kundenstatus oder Cross-Device-Informationen. Alle diese Algorithmen benötigen die Speicherung personenbezogener Daten über einen längeren Zeitraum. Viele dieser Daten wurden vor Einführung der DSGVO oftmals ohne aktive und vorherige Einwilligung gespeichert. Ein nachträgliches Löschen würde erhebliche Löcher in die Tracking-Daten reißen, da nur ein kleiner Prozentsatz von Nutzern nachträglich bereit ist, eine aktive Zustimmung zu erteilen.
D wie Digitale Ethik
Der Begriff der digitalen Ethik (digital ethics) wird unterschiedlich eingesetzt und beschäftigt sich mit moralischen Fragen des digitalen Wandels. Grundsätzlich setzt sich die digitale Ethik mit den sittlichen Grenzen auseinander, die sich durch die Digitalisierung neu gebildet haben oder durch diese verschoben wurden. Einerseits liegt der Fokus auf der technologischen Entwicklung und hinterfragt, wie weit technische Möglichkeiten genutzt werden dürfen, wenn sie z. B. Vorteile für die eine Nutzergruppe und gleichzeitig Nachteile oder Schaden für eine andere Nutzergruppe schafft (Technikethik). Auf der anderen Seite setzt sich die digitale Ethik mit den zwischenmenschlichen Beziehungen in einer digitalen Welt auseinander (Medienethik). Dazwischen liegt das weite Feld im Umgang mit Daten und Datenschutz, nachdem Informationen eine immer wichtigere Ressource wird (Medienethik).
Somit deckt die digitale Ethik ein breites Spektrum ab, reflektiert kritisch die Entwicklungen der Digitalisierung und fragt nach sittlich-moralischen Grenzen des Erlaubten oder Vertretbaren. Die Grundphilosophie hinter der digitalen Ethik lautet: Das Verhältnis zwischen Mensch und Maschine sollte in einer zunehmend technologisierten Gesellschaft nicht nur durch das technisch Machbare, sondern auch durch das moralisch Wünschenswerte bestimmt werden. Die Werte einer freiheitlich-demokratischen Gesellschaft reduzieren sich nicht auf die analoge Welt, sondern sind auch in sämtlichen digitalen Formaten anzuwenden. Daher formuliert die digitale Ethik Handlungsanweisungen und Empfehlungen (keine Verbote!), da eine allgemeine Akzeptanz für die Ethik von zentraler Bedeutung ist.
Der Schwerpunkt der digitalen Ethik beschäftigt sich mit der Erhebung und Verwendung von Daten und dies im Zusammenhang mit dem Datenschutz. Somit ist die digitale Ethik die moralische Messlatte für die Datenökonomie. Außerdem liegt ein Schwerpunkt in der Anonymität im Internet und der sich daraus ergebenden Probleme (z. B. anonymes Cybermobbing). Ebenfalls beschäftigt sich die digitale Ethik mit dem Einsatz von künstlicher Intelligenz in besonders sensiblen Bereichen wie z. B. der Medizin oder der Sicherheit z. B. beim Abwägen von Personenschäden beim autonomen Fahren. Außerdem setzt sich die digitale Ethik mit der Herausforderung des digitalen Wohlbefindens auseinander und sucht nach Lösungen, wie trotz oder wegen der demografischen Entwicklung die Digitalkompetenz der Gesellschaft sichergestellt werden kann und ältere und/oder weniger technikaffine Menschen nicht abgehangen werden.
D wie Digitale Innovationen
Nicht jede digitale Entwicklung ist automatisch eine Innovation. Und eine Innovation muss nicht zwangsläufig auf digitaler Basis stattfinden. Da beide Begriffe allerdings häufig synonym verwendet werden, ist bei vielen Menschen genau dieser Eindruck entstanden. Mit Innovation wird vielfach Digitalisierung verstanden und Digitalisierung übersetzen viele Menschen mit Transformation als höchste Stufe oder Disruption als radikalste Form von Veränderungen. Digitalisierung hat den Innovationsbegriff komplett verändert und radikal erweitert. Deshalb ist wichtig, digitale Lösungen als operative Unterstützung von digitalen Innovationen zu differenzieren und je nach Anwendung zu kategorisieren. So unterscheiden sich z. B. hybride Lösungen, bei denen analoge Prozesse digitalisiert werden von digitalen Prozessen in Organisationen. Davon unterscheiden sich digitale Tools zur Unterstützung analoger oder integriert in digitale Prozesse vom digitalen Servicedesign oder der digitalen Supply Chain. Digitale Geschäftsmodelle und -prozesse sind nicht gleichzusetzen mit digitalen Tools zur Beratung und Bestellung oder digitalen (agilen, iterativen) Arbeitsmethoden wie z. B. Srum, Kanban, Sprints und dgl. Auch digitales Projektmanagement wie das Monitoring des gesamten Innovationsprozesses inkl. Ressourcenmanagement, Risikomanagement, Trendscouting usw. stellt eine eigene Disziplin dar und darf mit den vorhergenannten Begriffen nicht verwechselt oder synonym gleichgesetzt werden.
Digitale Innovationen werden in verschiedene Bereiche unterschieden wie
- Geschäftsbeziehung (Kunden-, Lieferanten- und Partnerbeziehung),
- Leistungsebene (Produktangebot, Services und Dienstleistungen) und
- Organisation (Prozesse, Strukturen, Datenmanagement und Monitoring, Kultur und Führung).
In der Operationalisierung von digitalen Innovationen hat sich bewährt, in Anlehnung an das klassische Canvas-Modell das „Digital Innovation Model“ anzuwenden.
Digitale Lösungen zur operativen Unterstützung von analogen und/oder digitalen Geschäftsprozessen, digitale Innovationen im Servicedesign und/oder digitale Geschäftsmodellinnovationen werden wesentlich durch die Treiber der Digitalen Transformation beeinflusst. Entscheidend ist, ob Innovationen eher markt- oder technologiegetrieben sind. Oder anders ausgedrückt: muss die Technologie entwickelt werden, um eine Idee umsetzen zu können oder bereitet die Technologie den Boden, um neue Ideen entwickeln zu können.
D wie Digitalen Vertrieb
→Vertrieb der Zukunft
D wie Digitaler Geruch / digitaler Geschmack
Die Wissenschaft und Forschung arbeitet seit einiger Zeit daran, den Geruch und den Geschmack zu digitalisieren. Das Potenzial und die Möglichkeiten für eCommerce und andere Anwendungen wären gigantisch. Beide Projekte sind sehr anspruchsvoll, da geruchs- und/oder geschmacksintensive Stoffe nicht selten über hunderte verschiedene Komponenten verfügen. Hierbei geht es nicht um ein Parfüm oder eine asiatische Suppe, an die man spontan denkt. Selbst vermeintlich „einfache“ Lebensmittel wie z. B. Kaffee können bis zu 200 Duftkomponenten enthalten. Das menschliche Gehirn wertet die Informationen über Geschmack und Geruch gleichzeitig aus, da der Mensch nur so z. B. die Feinheiten eines Gerichtes schmecken und riechen kann. In dem Forschungsprojekt werden die verschiedenen Bestandteile, die den Geruch oder Geschmack verursachen, zerlegt und die Elemente der Komponenten anschließend entschlüsselt. Hierbei spielen nicht nur Art und Menge der Komponenten eine große Rolle, sondern auch deren Konzentration. Mit Hilfe leistungsstarker Computer und spezieller Software können die Geruchs- und Geschmacksinformationen in einen digitalen Code oder Schlüssel transferiert werden. Damit der Mensch diesen digitalisierten Duft oder Geschmack wieder aufnehmen kann, wird ein Duft- oder Geschmacksproduzent benötigt, der echte Materie produziert. An diesem Punkt hängen aktuell die Entwicklungen, da die Wissenschaft und Forschung trotz anfänglicher Erfolge noch keine reproduzierbare Lösung gefunden hat. Generell lässt sich festhalten, dass die Entwicklung beim Geschmack und bei den Düften noch in den Kinderfüßen steckt und auch erst knapp 30 Basisdüfte entschlüsselt wurden, während die menschliche Nase über 350 Arten von Geruchsrezeptoren besitzt.
D wie Digitaler Reifegrad
Mit dem digitalen Reifegrad wird der aktuelle Stand eines Unternehmens auf dem Weg zur digitalen Transformation bezeichnet. Dieser wird häufig in Form eines Faktors ausgewiesen. Der digitale Reifegrad ist nicht nur für Unternehmen wichtig, um den Status quo zu dokumentieren, sondern auch um konkrete Handlungsoptionen aufzuzeigen. Je höher der Reifegrad ausgewiesen wird, desto weiter hat ein Unternehmen z. B. seine digitalen Prozesse automatisiert oder sein Geschäftsmodell digitalisiert oder auch die Unternehmenskultur transformiert. Der digitale Reifegrad ist somit ein Instrument zur systematischen Überprüfung und Bewertung sowie kontinuierlichen Weiterentwicklung von Technologie und Ökosystemen, Fähigkeiten und Kompetenzen, Prozessen und Strukturen sowie Rahmenbedingungen für Organisationen. Dabei betrachtet der Digitale Reifegrad unterschiedliche Dimensionen. Hierzu gehören
- Strategie wie z. B. Aspekte der Unternehmensführung, strategische Digitalisierungsziele, digitale Geschäftsmodellentwicklung oder -innovationen sowie Investitionen in Digitalisierungstechnologien
- Technologie wie z. B. IT-Infrastruktur und Ökosystem, Big Data und Datenmanagement
- Produkt und Dienstleistungen wie z. B. Produktentwicklung sowie smarte Produkte und intelligente Services
- Organisation und Prozesse wie z. B. Standardisierungsgrad, Agilität von Prozessen sowie Innovationsmanagement
- Mitarbeiter wie z. B. Aufgaben und Zuständigkeiten, Qualifikation und Kompetenzen wie z. B. der Methodenkoffer, Motivation und Führung sowie Unternehmenskultur als Rahmen für den Change-Prozess.
Es gibt eine ganze Reihe von Tests, mit denen der digitale Reifegrad von Unternehmen gemessen werden kann wie z. B. der →Readiness-Check. Alternativ werden immer öfter Ansätze aus dem Gamification genutzt wie z. B. Serious Games.
D wie Digitaler Zwilling
Der Begriff digitaler Zwilling wird synonym und „unscharf“ für verschiedene Funktionen verwendet. Zum einen steht der Begriff für virtuelle oder digitale Assistenten. Auch für eine digitale Kopie oder Dublette einer analogen Vorlage wird der Begriff verwendet. Hierbei kann es sich um ein computergestütztes Modell eines materiellen oder immateriellen Objektes handeln wie z. B. ein Produkt, Service oder Geschäftsmodell. Man spricht dann auch von virtuellen oder digitalen Zwillingen im „realen Raum“. Alternativ wird der Begriff auch für die digitale Repräsentanz materieller oder immaterieller Objekte in einem digitalen Geschäftsmodell verwendet. Dann werden virtuelle oder digitale Zwillinge im „virtuellen Raum“ beschrieben. Werden beide Optionen miteinander verbunden, spricht man auch vom „digitalen Avatar“. In dem Fall ist ein digitaler Zwilling ein virtuelles Modell z. B. eines Prozesses, eines Produktes oder einer Dienstleistung, mit der die reale und virtuelle Welt miteinander verbunden werden. Je nach Anwendung verwenden diese digitalen Zwillinge reale Daten von z. B. installierten Sensoren, mit denen z. B. Arbeitsbedingungen repräsentiert werden. Diese Kopplung der virtuellen und realen Welt ermöglicht die Analyse von Daten und die Überwachung von Systemen, um z. B. Probleme rechtzeitig zu erkennen, zu verstehen und zu reagieren, bevor diese überhaupt auftreten. Somit können Ausfallzeiten vermieden und/oder Prozesse on Demand optimiert werden.
D wie Digitales Befähigungsmodell
Die digitale Transformation von Unternehmen ist weder ein Projekt noch ein digitaler Prozess. Der Erfolg wird maßgeblich davon abhängen, ob und wie sich Unternehmen mit ihren Organisationen und Strukturen flexibel und dynamisch an die sich kontinuierlich verändernde Umgebung anpassen können – und dies in allen Unternehmensbereichen. Hilfestellung bietet das digitale Befähigungsmodell, mit dem im ersten Schritt der digitale Reifegrad von Unternehmen bestimmt wird. Dieser analysiert den individuellen Ausgangspunkt, um passgenaue Zielstellungen und zielgerichtete Maßnahmen für eine erfolgreiche Transformation zu entwickeln. Das digitale Befähigungsmodell von e-nnovalytics® umfasst sechs Bereiche:
- Ziele und Strategie
- Kultur und Werte
- Führung und Zusammenarbeit
- Organisation, Struktur und Zuständigkeiten
- Daten, Prozesse und Abläufe
- Technologie, Know-how und Kompetenzen
Die Reihenfolge der sechs Bereiche richtet sich nach dem strategisch konzeptionellen Grad und wird mit jedem weiteren Bereich operativer. Ein entsprechendes Framework unterstützt die konkrete Umsetzung und hilft dabei, ein gemeinsames Verständnis über Digitalisierung, Innovation, Transformation und Agilität zu entwickeln. Es unterstützt bei der Entwicklung einer Innovations- und/oder Digitalisierungsstrategie sowie einer operativen Roadmap. Außerdem gibt es Hilfestellung, wie Unternehmen digitale Fähigkeiten aufbauen und agile Methoden im Alltag einsetzen. Der Aufbau einer innovationsfreundlichen Unternehmenskultur gehört genauso dazu wie Digital Leadership, agile Kollaboration und die Integration und Motivation aller Mitarbeiter. Somit schafft das Befähigungsmodell das Fundament für digitale Innovationen.
Neben dem Framework gibt es auch die Möglichkeit, den digitalen Reifegrad von Unternehmen über Gamification zu ermitteln. Hierzu wurde unter der Marke Innogramm® ein Serious Game entwickelt. Dieses Plan- und Strategiespiel nutzt die gamifizierte Diagnostik, um den Reifegrad von Unternehmen, Geschäftseinheiten, Abteilungen oder einzelner Mitarbeiter zu bestimmen, um anschließend individuelle Lösungen zur Optimierung zu entwickeln.
D wie Digitale Sprachassistenten
Digitale Sprachassistenten werden synonym auch als virtueller Assistent bezeichnet und beschreiben eine Software, die mit Hilfe von Spracheingabe bedient wird. Für die Nutzung der Geräte, Apps oder Anwendungen ist keine Tastatur notwendig. Die Assistenten starten mit Hilfe eines bestimmten Aktivierungswortes, wodurch ein Mikrofon gestartet wird und die Spracheingabe aufnimmt. Diese wird an ein Ökosystem gesendet, das die Spracheingabe mit Hilfe von Algorithmen, Big Data und künstlicher Intelligenz in Echtzeit verarbeitet. Das Ergebnis wird in der Regel ebenfalls in gesprochener Form ausgegeben. Digitale Sprachassistenten verwenden verschiedene Voice-Technologien wie z. B. Speech-to-Text oder Text-to-Speech-Verfahren, Slot Filling sowie Intenterkennung. Optimiert mit künstlicher Intelligenz kann die Spracheingabe schnell und präzise in Textform transkribiert werden und umgekehrt. Mittels Deep Neural Networks können digitale Sprachassistenten die Absicht des Nutzers ermitteln (Intent Recogniton) und durch gezieltes Nachfragen näher konkretisieren oder bei Unklarheiten durch intelligentes Nachfragen spezifizieren.
Alle großen Internetkonzerne haben eine eigene Technologie für digitale Sprachassistenten. Alexa von Amazon, Siri von Apple, Cortana von Microsoft, der Google Assistant oder Bixby von Samsung haben hierbei einen unterschiedlich großen Funktionsumfang. Alle diese Sprachassistenten sind für den B2C-Markt konzipiert und weisen im B2B-Markt einige Defizite auf. Neuentwicklungen wie z. B. Kidou schließen diese Lücke. Diese digitalen Sprachassistenten sind nicht mehr nur auf „Befehle“ programmiert, sondern können auf umgangssprachliche Fragestellungen eingehen. Durch gezieltes Training erkennen diese neuen Sprachassistenten auch Fachbegriffe, Umgangssprache und selbst Dialekt. Eine Anbindung an das unternehmenseigene Ökosystem ermöglicht einen fachspezifischen Dialog.
D wie Digitale Wasserzeichen
Ein digitales Wasserzeichen kann als Code oder Zeichenfolge in einer Bild-, Ton- oder Videodatei, aber auch in Programmen oder anderen digitalen Dokumenten eingebettet werden. Der Begriff wird für zwei unterschiedliche Anwendungen gebraucht.
Zum einen dient er dazu, einen Urheber oder einen berechtigten Benutzer eindeutig zu identifizieren. Digitale Wasserzeichen können sich an zufälligen Stellen des Dokumentes wiederholen. Dies soll sowohl die Erkennung, als auch das Entfernen erschweren. Mit diesem digitalen Wasserzeichen sollen also vorwiegend urheberrechtlich geschützte Werke der entsprechenden Schöpfer von Inhalten, vor einer illegalen Verwendung und Verbreitung geschützt werden. Die Verteilung an sich kann das Wasserzeichen in vielen Fällen nicht verhindern, aber es vereinfacht es für Rechteinhaber eine unrechtmäßige Weitergabe oder Nutzung zu erkennen.
Eine weitere Anwendung besteht in so genannten Smart Labels (elektronische Etiketten), in denen digitale Wasserzeichen eingesetzt werden, um z. B. analoge Verpackungen mit digitalen Services zu verknüpfen. Sie sind die Weiterentwicklung des Strich- oder QR-Codes und werden als digitale Wasserzeichen, DW- oder 3D-Codes bezeichnet. Außerdem kommen RFID- oder NFC-Tags zum Einsatz. Am Point-of-Sales werden darüber hinaus Beacons eingesetzt. Codes beinhalten Pull-Informationen, so dass Inhalte aktiv über Smartphones abgerufen werden müssen. Tags dagegen basieren auf Push-Informationen, so dass Inhalte direkt auf das Smartphone geschickt werden können (DSGVO-konforme Zustimmung vorausgesetzt). Auf dieser Grundlage können intelligente Verpackungen entwickelt werden. Bei der intelligenten Verpackung werden z. B. dynamische Icons bzw. interaktive Piktogramme eingesetzt, die mehrsprachig sind und regionalisiert und personalisiert werden können. Smart Labels werden das Supply-Chain-Management, den Produktlebenszyklus sowie das Customer-Relationship-Management nachhaltig verändern. Aktuelle Anwendungen sind z. B. Herstell-/Abfülldatum bzw. Haltbarkeitsdaten, smarte Einkaufswagen, Gepäckabfertigung, Müllabfuhr, Eintrittskarten u.v.m.
D wie Digital Game-based Learning
Der Begriff Digital Game-based Learning beschreibt die Verschmelzung (Synthese) von spielerischer Wissensvermittlung mit Hilfe von Computer- und Videospielen. Hierbei werden verschiedene positive Effekte von digitalen Spielen genutzt, die herkömmliche Lernmethoden nicht bieten können. Hierzu gehört zum einen, dass normaler Leistungsdruck in digitalen Spielen in positive Motivation und somit lernfördernde Effekte umgewandelt wird. Hinzu kommen Ablenkung durch Spielspaß und eine höhere Identifizierung mit einer Zielsetzung. Das Lern- und Motivationspotential von digitalen Spielen führt häufig dazu, dass der Nutzer länger und intensiver lernt als bei herkömmlichen Methoden. Je besser die Interaktion mit dem Nutzer ist (Wechsel von Aktion und Reaktion), umso intensiver ist das Lernergebnis. Spiele sollten den Bedürfnissen der Spieler angepasst werden, die dann nicht nur konsumieren, sondern eigene Geschichten kreieren. Ein großer Vorteil digitaler Lernspiele ist, dass Fehler und Versagen nicht so stark geahndet werden wie im realen Leben. Außerdem sind digitale Spielwelten gut strukturiert und Informationen und/oder Interaktionen werden dann aufgerufen, wenn sie gebraucht werden. Wörter und Definitionen sind in Kontexte von Bildern, Videos oder Dialogen eingebunden. Digitale Spiele fordern und fördern das systemische und systematische Denken. Der Nutzer lernt, einzelne Handlungen im Kontext der Interaktionen zum Umfeld zu sehen. Und digitale Spiele sind perfekt zur Selbstreflexion. „Smart Tools“ wie Avatare oder Belohnungen im Spiel setzen gezielte Impulse und aktivieren Motivation und Leistungswille. Pädagogisch wertvolle Spiele setzen häufig auf cross-funktionale Teams mit unterschiedlichem Expertenwissen.
Digital Game-based Learning kann als Teilgebiet zum Edutainment sowie zum E-Learning gezählt werden. Edutainment vereint Bildung (Education) und Unterhaltung (Entertainment). Zu diesen gehören neben digitalen Lernspielen auch nicht-digitale Lernspiele und Lernvideos usw. Bei E-Learning hingegen kommen auch digitale Medien ohne Spielanteil zum Einsatz. Abhängig von der vorgesehenen Nutzergruppe unterscheiden sich digitale Lernspiele in Art und Ausrichtung ihrer Elemente. Beim Computer-based Training (CBT), Web-based Training (WBT) sowie virtuellen Lernwelten stehen die Lerninhalte im Vordergrund.
D wie Digital Immigrants
Der Gegenbegriff zu →Digital Natives ist der Digital Immigrants. Er bezeichnet Personen, die erst im Erwachsenenalter mit digitalen Medien und Technologien in Berührung gekommen sind. Zu ihnen zählen Jahrgänge, die bis maximal Mitte der 1970-er Jahre geboren wurden. Hinzu kommt, dass sie die „digitale Sprache“ der jüngeren Generation weder beherrschen noch verstehen. Daher kann man häufig beobachten, dass Digital Immigrants digitale Aufgaben vorzugsweise an andere Personen delegieren.
D wie Digital Native
Der Begriff Digital Native (zu Deutsch: digitaler Ureinwohner) wurde erstmals 2001 erwähnt und steht für Personen, die von Kindheit an in der digitalen Welt aufgewachsen sind und den Umgang mit Informationstechnologien und dem Internet von klein auf gelernt haben. Daher steht der Begriff weniger für eine Altersgruppe, mit der häufig die Digital Natives umschrieben werden, sondern für die Art und Weise ihres Umgangs mit Medien und Technologie. Kulturell steht der Begriff auch für die „digitale Sprache“, mit der diese Generation aufwächst. Zu den Digital Natives gehören die →Generation Y (Me oder Millennials) und →Generation Z. Eine Welt ohne digitale Medien wie Software, Hardware und Computer-Peripherie, Internet und Suchmaschinen, E-Mails und Messenger-Dienste, Social Media und Microblogging, mobile Endgeräte wie Smartphones, Tablets und Wearables kennen sie nicht. Hirnforscher haben nachgewiesen, dass sich durch die permanente Nutzung digitaler Medien ihre Hirnstrukturen verändern. Digital Natives haben das Multitasking perfektioniert, in dem sie digitale Medien parallel anwenden und gleichzeitig verschiedene Interaktionen bearbeiten. Digital Natives bevorzugen deshalb Grafiken und arbeiten am besten vernetzt. Zur vollen Entfaltung kommen sie, wenn sie unmittelbar und häufig belohnt werden (→Gamification). Der Gegensatz zu ihnen ist der →Digital Immigrant.
D wie Digital Vortex
Der Digital Vortex visualisiert die Veränderungen infolge der zunehmenden Digitalisierung und deren Auswirkungen auf verschiedene Branchen. Untersucht werden diese seit 2015 durch das „Global Center for Digital Business Transformation“. Dargestellt werden die Ergebnisse jedes Jahr in einer Studie. Herzstück ist die Darstellung durch einen Strudel (Vortex), der die jeweilige Stärke widerspiegelt, mit der eine Branche unter Druck gerät. Der Strudel hat in den letzten Jahren nicht nur mehr Geschwindigkeit aufgenommen und ist enger geworden, sondern hat auch neue Branchen erfasst, von denen kaum zu erwarten war, dass diese so schnell im Strudel auftauchen.
Auslöser der Studie und der Darstellung des Digital Vortex waren ursprünglich Wahrnehmung, Einstellung und Verhaltensweisen von Führungskräften mit der digitalen Transformation, die nicht selten ignoriert oder unterschätzt wurde. Der Digital Vortex sollte dazu beitragen, auch Branchen zu sensibilisieren, die von der digitalen Entwicklung noch nicht so stark betroffen waren wie andere. Die Ergebnisse liefern weitaus mehr Informationen über Trends und dynamische Entwicklungen, als ursprünglich geplant war. Im Digital Vortex befinden sich von innen nach außen (Rotation) folgende Branchen:
- Medien/Unterhaltung
- Technischer Handel und Dienstleistungen
- Telekommunikation
- Konsumgüter/Handel
- Finanzen/Banken
- Reisen/Tourismus
- Transport/Logistik
- Bildung
- Dienstleistungen
- Gesundheit/Pharmaindustrie
- Produzierendes Gewerbe
- Energie und Dienstleistungen
- Immobilien Makler und Bauindustrie
Der aktuelle Digital Vortex bestätigt, dass alle bisher genannten Branchen näher an das Zentrum des Wirbels gerückt sind – dort, wo Geschwindigkeit und Größe der Veränderung den größten Druck auf alle Unternehmen ausübt. Die Positionen vieler Branchen haben sich drastisch und unvorhersehbar schnell in die Mitte verschoben. Es ist davon auszugehen, dass in den kommenden Jahren alle Branchen in dem Strudel der Digitalisierung auftauchen werden. Betrachtet man die Entwicklung seit 2015 und legt die Strudel übereinander, ist eine eindeutige Dynamik zu erkennen, mit welcher Geschwindigkeit der Druck für einzelne Branchen zunimmt. Die Auswirkungen der Pandemie sind in dem letzten Digital Vortex noch gar nicht berücksichtigt worden. Prognosen gehen davon aus, dass in den nächsten 5 Jahren disruptive Entwicklungen und Auswirkungen der Digitalisierung nahezu alle Branchen erfassen und stark bereinigen wird. Ein Drittel der Unternehmen soll demnach verdrängt oder sogar eliminiert werden.
D wie D.I.N.K.
D.I.N.K. ist ein Akronym für Double Income No Kids (= doppeltes Einkommen, keine Kinder) und beschreibt ein Zielgruppensegment, das in der Regel Paare bezeichnet, die zwischen 25 und 45 Jahre alt sind, noch keine Kinder haben oder kinderlos bleiben wollen. Da beide Paare berufstätig sind, verfügen sie über ein entsprechend hohes (doppeltes) Einkommen und gelten in der Kundensegmentierung als interessante Zielgruppe.
D wie Disruptive Innovationen
Als radikalste Form von Veränderungen gelten disruptive Innovationen. Diese beginnen häufig und meist unscheinbar in einer Nische oder am Rand einer Branche und entwickeln sich nicht selten erst einmal eine Zeitlang unter dem Radar. Grundlage ist entweder eine völlig neue Technologie oder ein völlig neuartiges Geschäftsmodell, mit dem Produkte und/oder Dienstleistungen angeboten werden, die nicht nur neu und einzigartig sind, sondern etablierte Unternehmen und ihre Produkte bis hin zu Geschäftsmodellen oder in Ausnahmen ganze Branchen überflüssig machen. Dies ist der wesentliche Unterschied zu inkrementellen Innovationen, bei denen Bestehendes maßgeblich weiter- oder neu entwickelt werden. Neue Technologien und/oder neuartige Geschäftsmodelle sind allerdings nicht Auslöser oder Ursache für disruptive Innovationen, sondern immer nur die Werkzeuge.
„Disruption geht vom Kunden aus, weil sich deren Bedürfnisse ändern. Der Erfolg digitaler Innovationen und Transformation hängt nicht vom Einsatz neuer Technologien ab. Entscheidend ist, dass wir willens und in der Lage sind, die Welt mit diesen neuen Möglichkeiten neu zu denken.“ (Quelle: Prof. Thales Teixeira, Harvard Business School l Digitale Disruption und Aufmerksamkeits-Ökonomie)
„Disruption entsteht, wenn unversorgte Kundenbedürfnisse angesprochen werden. Startups greifen etablierte Unternehmen niemals in der Breite an, sondern analysieren deren Schwachpunkte innerhalb der Wertschöpfungskette oder an den Markträndern. Neu ist bei vielen disruptiven Innovationen nicht das Produkt, sondern der Denkansatz.“ (Quelle: Clayton M. Christensen („The Innovator’s Dilemma“) gilt als Pionier disruptiver Innovation)
In den meisten Fällen gehen disruptive Innovationen von kleinen Unternehmen als Brancheneinsteiger oder Nischenanbieter aus. Marktführer sind in den seltensten Fällen Treiber dieser Entwicklungen. Anderenfalls müssten diese Unternehmen zum „Hacker“ ihres eigenen Geschäftsmodells werden. In traditionellen Organisationen sind disruptive Innovationen kaum möglich, da sich Unternehmen auf ihre Kernkompetenz und mit allen Prozessen auf das Kerngeschäft konzentrieren, Bestandskunden und -umsätze abgesichert und Neukunden eher über traditionelle Verdrängung gewonnen werden, bestehende Planungsvorgaben bonifiziert und somit Neues nicht honoriert wird, das Mindset der Führungskräfte und eine innovationsfreundliche Unternehmenskultur fehlen und den Mitarbeitern die nötigen Freiräume sowie Ressourcen verwehrt werden u.v.m.
Hinzu kommen strukturelle Probleme, da klassische Unternehmen immer noch in Silostrukturen und Matrixorganisationen aufgestellt sind. Und dies, obwohl sich seit Jahren die Erkenntnis durchsetzt, dass diese Organisationsform eher Abgrenzung, Fachbereichsegoismus und Ineffizienz fördern.
D wie disruptive Innovatoren
Disruptive Innovatoren ist ein Begriff aus den innovativen Milieus. Typisch für dieses Milieu ist ihre Offenheit für Neues, eine hohe Risikobereitschaft und der Mut zu radikalen Innovationen mit disruptivem Potenzial. Ein weiteres Merkmal ist eine innovationsfreundliche Unternehmenskultur und insbesondere die aktive Einbindung und Motivation der Mitarbeiter. Innovationen werden als Querschnittsfunktion im gesamten Unternehmen gesehen und nicht als nicht als Top-Down-Prozess in abgegrenzten Fachbereichen. Knapp ein Fünftel der Unternehmen kann den disruptiven Innovatoren zugeordnet werden. Besonders auffallend ist der Anteil von Startups und junger Unternehmen. Ein Viertel von ihnen wurde erst in den vergangenen zehn Jahren gegründet.
→ innovative Milieus
D wie Diversifikationsstrategie
→Sprinkler-Strategie
D wie DMAIC
Das Akronym DMAIC steht für den Kernprozess der Qualitätsmanagement-Methode →Six Sigma und beschreibt dessen Phasen:
- Define (Definieren): was ist das Problem? In dieser Phase wird der Ist-Zustand dokumentiert, analysiert und definiert, welche Zielgruppe welchen Bedarf hat und wie dieser befriedigt werden soll. Auf dieser Basis werden dann die Leistungsmerkmale des Prozesses sowie Rahmenbedingungen (Umfang, Zeit, Budget etc.) definiert.
- Measure (Messen): wie ist die Performance? Zahlen, Daten und Fakten messen die Ausprägung der Leistungsmerkmale (Prozess-Mapping). Ziel ist die Funktionalität des Prozesses zu erfassen sowie die Meilensteine und Prioritäten zu definieren.
- Analyse (Analysieren): Welche Ursachen hat das Problem? In dieser Phase werden die Ursache-Wirkungs-Beziehungen zwischen In- und Outputs qualitativ und quantitativ dargestellt, um Abweichungen von definierten Leistungszielen zu identifizieren. Bewährte Tools sind u. a. →Ishikawa-Diagramme sowie statistische Methoden.
- Improve (Verbessern): Wie lässt sich das Problem eliminieren? Das Ziel dieser Phase sind Lösungsmöglichkeiten für die in der Analysephase identifizierten Probleme. Hierzu werden Kreativitätstechniken wie z. B. →Brainstorming oder →Brainwriting, →Mindmapping oder →Morphologischer Kasten eingesetzt.
- Control (Steuern): Die letzte Phase dient der Implementierung und Steuerung der erreichten Verbesserungen durch Standardisierung und Dokumentation. Die Überprüfung der Zielerreichung erfolgt durch das Controlling.
DMAIC fasst bekannte Vorgehensweisen und bewährte Methoden zu einem systematischen Ansatz zusammen und verknüpft Werkzeuge über die einzelnen Phasen miteinander, so dass Prozesse und Projekte strukturiert und systematisiert werden.
Die Prozessoptimierung DMAIC wurde im Laufe der Zeit weiter entwickelt und angepasst wie z. B. DMADV (DV = Design – Verify) für neue Produkte und DMAEC (E = Engineering) für neue Prozesse.
D wie Double-Diamond-Modell
Das Double-Diamond-Modell ist Teil des →Design Thinkings. Das Herzstück besteht aus den vier Phasen des Double Diamond: Discover, Define, Develop und Deliver. Das Double-Diamond-Modell wurde 2005 vom British Design Council entwickelt und stellt den Nutzer in den Mittelpunkt des Lösungsprozesses. Umfragen, Interviews, Erfahrungsberichte und Feedbacks sind ein zentraler Bestandteil jeder einzelnen Phase des Modells, um notwendige Anpassungen vorzunehmen. Hierbei geht es vor allem um das Verständnis der individuellen Wünsche, Bedarfe und Bedürfnisse. Die Double-Diamond-Strategie betrachtet Servicedesign aus drei Perspektiven: Kundenrelevanz und -attraktivität, technologische Machbarkeit und Entwicklung sowie Wirtschaftlichkeit und Nachhaltigkeit – die Schnittmenge daraus ist die Innovation. Hierbei spielen agile Methoden wie z. B. iterative Prozesse eine essenzielle Rolle: Zielgruppen beobachten, Problem verstehen, Perspektiven wechseln, Ideen entwickeln, Prototyping, optimieren und finale Lösung finden. Eine Abwandlung des Double-Diamond-Modells oder auch 4 Phasen-Modells stellt das so genannte →Münchberger Modell dar.
D wie 3D Druck
3D-Druck ist ein additives Herstellungsverfahren, bei dem Material Schicht für Schicht aufgetragen wird und somit dreidimensionale Objekte entstehen. Der übergeordnete Gattungsbetriff für diese Verfahren ist generative Fertigung oder Rapid-Technologien. Der schichtweise Aufbau der Materialien erfolgt computergesteuert aus einem oder mehreren flüssigen oder festen Werkstoffen nach vorgegebenen Maßen und Formen. Beim Aufbau finden physikalische oder chemische Härtungs- oder Schmelzprozesse statt. Typische Werkstoffe für den 3D-Druck sind Kunststoffe, Kunstharze, Keramiken und speziell aufbereitete Metalle sowie seit Kurzem Carbon- und Graphitmaterialien. 3D-Drucker werden in der Forschung, im Modellbau und zur Fertigung von Mustern und Prototypen (Rapid Prototyping) eingesetzt. Außerdem kommen sie bei der Herstellung von Werkzeugen (Rapid Tooling) und Fertigteilen (Rapid Manufacturing) zum Einsatz und finden Anwendungen in der Baubranche, der Industrie sowie in der Kunst und Medizin. Beim 3D-Druck-Verfahren erhöht sich die Wirtschaftlichkeit mit steigender Komplexität der Bauteilgeometrie und/oder sinkenden Stückzahlen. 3D-Druck-Verfahren haben gegenüber anderen Fertigungen wie z. B. dem Spritzgussverfahren den Vorteil, dass die aufwändige Herstellung von Formen und der Formenwechsel entfällt. Derzeitige Vorbehalte gegen den 3D-Druck gibt es vor allem aufgrund der Tatsache, dass dieses Verfahren noch nicht genormt ist, Erfahrungen fehlen und von den meisten Genehmigungsgremien nicht als Konstruktionsverfahren anerkannt wird. Eine der Schwierigkeiten besteht in den Berechnungen zur Haltbarkeit und Widerstandsfähigkeit. 3D Druck ist mittlerweile im Mainstream angekommen; Forscher arbeiten bereits am →4D Druck-Verfahren.
D wie 3. Welle
Der Begriff der 3. Welle wird häufig im Zusammenhang mit →Drohnen sowie der Entwicklung der →Drohnenökonomie genannt. Er beschreibt die 3 wellenartigen Entwicklungsschritte. Die 1. Welle begann 2008 und beschreibt die Entwicklung der Technologie. Der Fokus der „Bastlerszene“ lag auf Hightech und bedient seitdem einen kontinuierlichen Markt, der kaum wächst. Die 2. Welle begann 2012 und umfasst die Anwendung des Flugmodells zur Freizeitgestaltung und für Luftsportaktivitäten. Vereinfacht ausgedrückt entdeckte der Privatnutzer die Drohne als Spielzeug. In dieser Phase wurden die ersten Apps für Drohnen entwickelt. Der Markt wuchs deutlich. In der 3. Welle, die 2014 begann, entdeckten Unternehmen die Drohne als Werkzeug und integrieren diese zunehmend in eine eigene cloudbasierte Plattformökonomie. Der Entwicklungsverlauf der 3. Welle ist weit rasanter und umwälzender als die ersten beiden Phasen zusammen. Experten arbeiten bereits an Unterwasserdrohnen, mit denen der Planet dann endgültig erforscht werden kann.
D wie Drohnen
Eine Drohne ist ein unbemanntes Flugobjekt bzw. Luftfahrzeug, das ohne eine an Bord befindliche Besatzung autark durch einen Computer oder vom Boden über eine Fernsteuerung betrieben und navigiert werden kann. Die Luftfahrtbehörden unterscheiden zudem noch Flugmodelle und differenzieren nach deren Einsatzzweck. So gehören Flugmodelle zur Freizeitgestaltung oder für Luftsportaktivitäten, zu denen Quadrocopter gehören, nicht zu den unbemannten Luftfahrzeugen. In den letzten Jahren hat auch die Wirtschaft das Potenzial von Drohnen und deren vielseitige Anwendungsmöglichkeiten erkannt, so dass sich eine stark wachsende →Drohnenökonomie entwickelt hat.
Siehe auch →3. Welle
D wie Drohnenökonomie
Bei →einer Drohne denkt man zunächst an ein fliegendes Spielzeug oder eine fliegende Kamera. Denkt man an einen kommerziellen Einsatz, fallen einem sofort fliegende Paketzustellungen ein. Dabei liegt das wahre Potenzial darin, Daten aus der Luft zu sammeln. Hierfür wurden bisher Flugzeuge oder auch Satelliten eingesetzt. Nachteilig hierbei sind u. a. die Kosten, die Auflösung und zum Teil die Wetteranfälligkeit. Drohnen sind hierfür prädestiniert. Die von ihnen gelieferten Informationen haben eine deutlich höhere Bildauflösung. Außerdem können sie situativ eingesetzt und individuell gesteuert werden. In Sachen Genauigkeit nehmen sie es mittlerweile selbst mit Laserscannern auf. Drohnen beschaffen Informationen in Minuten oder Stunden, wofür der Mensch Tage oder Wochen benötigt inklusive einer aufwändigen Vorbereitungszeit, die bei Drohnen meistens entfallen. Fotografie war die erste Killer-App für Multikopter. Danach folgten Videoüberwachung und Kartierung. Drohnen sind gerade dabei, die „Lücke“ zwischen Flug- oder Satellitenaufnahmen und der Straßenperspektive zu füllen. Sie digitalisieren den Planeten in hoher Auflösung und beinahe in Echtzeit. Die Drohnenwirtschaft gilt als disruptiv, da sie herkömmliche Anwendungen, Methoden und Geschäftsmodelle überflüssig macht und völlig neue Möglichkeiten aufzeigt.
Das kommerzielle Potenzial wird erst sichtbar, nachdem Drohnen mit spezieller Software als integraler Bestandteil von Plattformen ausgestattet wurden. Wie bereits in der App-Ökonomie wird es zukünftig auch Applikationen für Drohnen geben, deren Möglichkeiten heute noch nicht vorstellbar sind. Experten sprechen bereits heute vom „Internet der fliegenden Dinge“. Die rasante Entwicklung der Smartphones machte eine Vielzahl intelligenter Technologien, Sensoren, schnelle Prozessoren, Kameras, Breitbandanbindung bis hin zum GPS für jedermann zugänglich. Die Vielzahl unterschiedlicher und leistungsstarker Chips macht das Smartphone zu einem Supercomputer im Kleinformat. Und die Economies of Scale führte dazu, dass diese Komponenten erschwinglich und für den Massenmarkt tauglich wurden.
D wie DRaaS (Disaster Recovery as a Service)
DRaaS ist ein Spezialfall von Disaster Recovery (deutsch Notfallwiederherstellung). Wie der Zusatz „as a Service“ ausdrückt, wird dieses weiterentwickelte Backup an einen spezialisierten Partner ausgegliedert. Disaster Recovery as a Service (DRaaS) ist ein integraler Bestandteil des Business Continuity Management (BCM) und beschreibt einen Managed IT-Service. Das BCM umfasst Pläne und Vorbereitungen für die Weiterführung der Geschäftsprozesse bei teilweisem oder komplettem Ausfall kritischer Systeme. Aufgabe der Disaster Recovery ist das planmäßige Wiederherstellen des normalen Betriebszustands. Schwerwiegende Störungen der Betriebssysteme können z. B. durch Strom-, Hardware- und Netzwerk-Ausfälle verursacht werden oder durch gezielte Angriffe gegen die IT-Sicherheit. Ursachen können vielschichtig sein, von Naturkatastrophen und Feuer bis zu menschlichen Fehlern, böswilligen Handlungen, Diebstahl von IT-Geräten oder Komponenten bis zu Datenträgern oder auch einer fehlerhaften Hard- oder Software.
Zu den drei hauptsächlichen Komponenten des BCP gehören High availability (HA), mit denen Kapazitäten und Prozesse bereitgestellt werden, welche einem Unternehmen beim Ausfall lokaler Systeme den Zugriff auf Daten und Anwendungen erlauben. Mit Continuous operations (CO) wird die Aufrechterhaltung des Betriebs während auftretender Störungen und geplanter Wartungsarbeiten sichergestellt. Disaster Recovery (DR) ist die Bereitstellung von Methoden, um ein komplettes IT-System beim Ausfall an anderer Stelle wiederaufbauen zu können.
Als Teil der Disaster Recovery-Strategie kommt heutzutage verstärkt die Cloud Disaster Recovery (Cloud-DR) zum Einsatz. Hierbei werden die zur Wiederherstellung betroffener Systeme notwendigen Daten in der Cloud gespeichert, anstatt auf physischen Massenspeichern vor Ort. Als Vorgabe für das Anlegen von Backups gilt seit langem die 3-2-1 Regel. Diese besagt, dass für alle Daten drei Versionen vorgehalten werden: das Original, plus zwei Kopien. Man spricht auch von der doppelten Redundanz. Dabei wird eine Kopie auf einem separaten Datenträger, jedoch in denselben Räumlichkeiten wie das Original aufbewahrt (On-site Backup). Die zweite Kopie wird an physisch entferntem Ort aufbewahrt (Off-site Backup). Bei Disaster Recovery as a Service steht die kontinuierliche Replikation der Geschäftsdaten und -systeme im Fokus. Dies geht über ein einfaches Daten-Backup hinaus und spiegelt komplette Ökosysteme. Dieses schließt sämtliche kritische Infrastruktur, Systeme, virtuelle Maschinen und Anwendungscontainer sowie Daten ein. In der Praxis haben sich zwei DRaaS-Ansätze bewährt: Das „Recovery Time Objective“ (RTO) und „Recovery Point Objective“ (RPO). Neben der Wiederherstellung betroffener Daten und Systeme enthalten professionelle DRaaS-Angebote häufig eine weitere essenzielle Funktion zur Aufrechterhaltung der Geschäftsprozesse: Mit Cloud-basierten „Failover Environments“ wird beim Ausfall oder schwerwiegenden Unterbrechungen ein Ersatzsystem eingeschaltet.
D wie Dunning-Kruger-Effekt
Mit dem Dunning-Kruger-Effekt bezeichnet man die kognitive Verzerrung im Selbstverständnis inkompetenter Menschen, das eigene Wissen und Können zu überschätzen. Dieses Phänomen basiert auf der Unfähigkeit, sich selbst mittels Metakognition objektiv beurteilen zu können. Der Begriff geht auf eine Publikation der beiden US-amerikanischen Psychologieprofessoren David Dunning und Justin Kruger im Jahr 1999 zurück und beschreibt die 4 Phasen der Selbstüberschätzung. In ihrer Studie kamen Dunning und Kruger zu erstaunlichen Ergebnissen. Sie konnten anhand einer Vielzahl von Probanden belegen, dass Unwissenheit (Nichtwissen oder Halbwissen) oft zu mehr Selbstvertrauen führte als Wissen oder vereinfacht ausgedrückt: Je inkompetenter eine Person, desto größer ihr Selbstbewusstsein. Die Studie belegte, dass weniger kompetente Personen häufig dazu neigen, entweder ihre eigenen Fähigkeiten zu überschätzen, überlegene Fähigkeiten bei anderen nicht zu erkennen und/oder das Ausmaß ihrer eigenen Inkompetenz nicht richtig einzuschätzen. Dunning und Kruger befragten in ihrem Experiment Studenten der Cornell Universität in New York u. a. auch zu rein erfundenen Themen, die in der Wissenschaft nicht existieren. Als die Probanden darauf angesprochen wurden, behauptete fast die Hälfte über genügend Hintergrundwissen zu verfügen, um sich darüber eine Meinung bilden zu können. Dunning erklärte das Phänomen wie folgt: „Wenn man inkompetent ist, kann man nicht wissen, dass man inkompetent ist […]. Die Fähigkeiten, die Sie benötigen, um eine richtige Antwort zu geben, sind genau die Fähigkeiten, die Sie benötigen, um zu erkennen, was eine richtige Antwort ist.“ Inkompetenz und Ignoranz treten oftmals zusammen auf. Daher wird der Dunning-Kruger-Effekt auch als eine mögliche Erklärung für die Ignoranz gegenüber wissenschaftlichen Prozessen herangezogen. Schon Sokrates stellte in seiner Apologie mit den Worten „Ich weiß, dass ich nichts weiß“ klar, dass Weisheit mit dem Bewusstsein über das eigene Nichtwissen beginnt. Derartige Einsichten wird man von Betroffenen des Dunning-Kruger-Phänomens nicht hören. Sie sind selbstbewusst bis überheblich von ihrer intellektuellen Überlegenheit überzeugt und versuchen diese regelmäßig anderen gegenüber zu demonstrieren, womit sie in gleicher Regelmäßigkeit das Gegenteil erreichen.
Das Phänomen ist unter diversen Namen und in Ausprägungen bekannt. Im Zusammenhang mit dem Intelligenzquotienten spricht man auch vom Downing-Effekt oder aus dem Englischen „illusory superiority”. Der Dunning-Kruger-Effekt wurde an Nordamerikanern nachgewiesen und in zahlreichen Studien auch in Europa bestätigt. Aufgrund der kulturellen Unterschiede kann man dieses Phänomen allerdings nicht auf andere Regionen übertragen. Asiaten z. B. tendieren eher dazu, ihre Fähigkeiten zu unterschätzen und nehmen Unwissenheit und Misserfolge zum Anlass, sich zu verbessern.
Der entgegengesetzte Effekt wird als Hochstapler-Syndrom bezeichnet und kann als Extrapolation der von Dunning und Kruger untersuchten inversen Korrelation zwischen Kompetenz und Selbstwahrnehmung hin zu hohen Kompetenzen angesehen werden. Der Effekt beschreibt die Selbstwahrnehmung insbesondere sehr kompetenter Menschen, die der Meinung sind, den eigenen Erfolg nicht verdient zu haben.
D wie Dynamic Capabilities
Dynamic Capabilities bilden die Klammer für widersprüchliche Vorstellungen, dass ein Unternehmen stabil genug ist, einen unverwechselbaren, ursprünglichen Wert zu liefern (Purpose) und gleichzeitig adaptiv genug ist, um sich agil zu verändern, wenn die äußeren Bedingungen dies erforderlich machen. Deshalb werden sie auch als Mikrofundamente und Fähigkeiten höherer Ordnung in der Evolution von Unternehmen bezeichnet. Dynamic Capabilities machen Unternehmen einzigartig und sind fast immer an originelle Geschäftsmodelle und -innovationen gebunden. Sie sind bei der digitalen Transformation die höchstrelevante und alles entscheidende Zukunftskompetenz von Unternehmen.
D wie Dynamic Pricing
Der Begriff Dynamic Pricing (auch Surge Pricing) beschreibt ein dynamisches Preismanagement und steht für eine Preisstrategie, bei der Unternehmen aufgrund der aktuellen Marktsituation den Preis für Produkte oder Dienstleistungen dynamisch anpassen. Diese Preisanpassung wird anhand von definierten Algorithmen automatisch berechnet, die sich permanent weiter entwickeln. Hierbei werden unterschiedliche Faktoren wie Angebot und Nachfrage, Wettbewerbspreise, verhaltenswissenschaftliche Aspekte sowie andere externe Faktoren wie z. B. Wetter, Feiertage usw. mit einbezogen. Eine besondere Form des dynamischen Pricing ist das Revenue Management.
Dynamic Pricing wird in unterschiedlichen Formen angewendet:
- Segmentierte Preisgestaltung bietet unterschiedliche Preise für verschiedene Kunden. Hierfür wurden vorab Kundensegmente gebildet (Buyer Personas).
- Zeitbasierte Preisgestaltung kommt zum Einsatz, wenn Kunden für die Bereitstellung bestimmter Angebote zu einem bestimmten Zeitpunkt (Wochenende, Feiertage, Randzeiten) bereit sind, einen höheren Preis zu zahlen.
- Preisgestaltung nach exogenen Marktbedingungen erfolgt auf Indikatoren, die häufig außerhalb der Branche liegen wie z. B. ein allgemeiner Anstieg von Rohstoffpreisen aus dem Weltmarkt, eine Verknappung von Ressourcen z. B. durch Krisen oder dgl.
- Spitzenpreise werden eingesetzt, um im Zeitraum der höchsten Nachfrage einen höheren Preis durchzusetzen.
Rule Engines bilden die Vorstufe zu intelligentem Pricing. Hierbei werden Preisanpassungen statisch und nicht selten manuell vorgenommen, z. B. in dem die Preise von Wettbewerbern beobachtet und situativ um einige Prozentpunkte angepasst werden. Diese Vorgehensweise folgt keinen intelligenten Regeln und eignet sich nicht für eine aktive und kontextbasierte Preisgestaltung. Außerdem stößt diese Form der Preisanpassung bei einer wachsenden Zahl von Wettbewerbern und größer werdenden Sortimenten, einem größer werdenden Radius des Einflussgebietes sowie zunehmender Geschwindigkeit von Marktveränderungen schnell an seine Grenzen.
Dark Horse Prototyp
D wie Dark Horse Prototyp
Dark Horse Prototyping beschreibt eine sehr spezielle Methode im →Design Thinking und wird immer dann eingesetzt, wenn besonders verrückte Ideen oder andersartige (disruptive, radikale) Innovationen mit einem höheren Risiko entwickelt werden sollen. Erfahrungsgemäß tendieren Unternehmen eher zu →inkrementellen Innovationen, die sich naturgemäß vom Status quo wenig unterscheiden und sich an den bestehenden Lösungen orientieren. Dagegen schaffen polarisierende Ansätze meist die Potentiale mit dem größten Impact. Dark Horse Prototypen sind aufgrund ihres ergebnisoffenen Charakters besonders in der divergierenden Phase der Entwicklung und Prototypisierung von Ideen anzusetzen. Die Methode empfiehlt sich, wenn Situationen grundlegend hinterfragt werden sollen und selbst gesetzte Grenzen und gewohnte Praktiken überwunden werden sollen. Hierzu ist wichtig, dass im Team ohne Denkverbote und limitierende Faktoren die interessantesten, herausforderndsten und aufregendsten Ideen ausgewählt werden. Die Herausforderung besteht darin, auch unvorstellbare Visionen zuzulassen. Anschließend wird ein Prototyp erstellt und die Stärken, Schwächen und Potentiale im Team analysiert.
Der Begriff Dark Horse ist an den Pferderennsport angelehnt, bei dem das „Schwarze Pferd“ die niedrigsten Aussichten auf den Sieg hat und somit gleichzeitig den größten Gewinn erzielen würde.
DARPA
D wie DARPA
DARPA ist das Akronym für Defense Advanced Research Projects Agency. Diese Forschungs- und Entwicklungsbehörde des US-Verteidigungsministeriums ist für die Entwicklung neuer Technologien verantwortlich und geht auf die ursprüngliche ARPA (Advanced Research Projects Agency) zurück, die im Februar 1958 von Präsident Dwight D. Eisenhower als Reaktion auf den sowjetischen Start von Sputnik 1 im Jahr zuvor gegründet wurde. Durch die Zusammenarbeit von Wissenschaft und Forschung, Industrie und ausgewählten Schlüsselpartnern definiert, formuliert und koordiniert DARPA verschiedene Forschungs- und Entwicklungsprojekte, um bahnbrechende Technologien zu entwickeln und die Grenzen von Technologie und Wissenschaft zu erweitern. Auch das →ARPA-Net, aus dem sich später das Internet entwickelte, war in dieser Forschungs- und Entwicklungsbehörde angesiedelt und zu Beginn als militärisches Projekt angelegt. Die DARPA hat zudem wesentlichen Anteil an der Entwicklung von Personal Computer, GPS, Wettersatelliten, Stealth-Technologie, Drohnen, Sprachschnittstellen u. a.
Data Lake
D wie Data Lake
Der Begriff Data Lake beschreibt die Speicherung von Daten in ihrem Rohformat. Diese Rohdaten werden erst in ein anderes Format umgewandelt, wenn sie verwendet werden. Dies nennt man auch Schema-on-Read und ist ein kostengünstiges, schnelles Verfahren. Für entsprechende Analysen im Big Data ist dies ein guter Ausgangspunkt, da diese Plattform auch als Data-Management genutzt werden kann.
Data Mining
D wie Data Mining
Unter Data Mining versteht man die systematische Anwendung von computergestützten Methoden und Algorithmen zur möglichst automatischen Extraktion empirischer Daten, um in vorhandenen Datenbeständen Muster, Trends und/oder Zusammenhänge zu finden. Zur Wissensentdeckung eingesetzte Algorithmen basieren u. a. auf statistischen Methoden. Diese kommen bei der Potenzialanalyse zum Einsatz, um z. B. typische Warenkörbe zu analysieren (z. B. welche Produkte werden häufig zusammen gekauft oder in welchem Zusammenhang oder welche Faktoren sind ausschlaggebend für Kunden- und Markenloyalität). Weitere Anwendungen sind z. B. Charakterisierungsaussagen wie z. B. der Bestimmung von Erfolgsdeterminanten eines Web-Auftritts. Data Mining kommt zunehmend zum Einsatz, da Unternehmen erkennen, dass die gesammelten und verfügbaren Daten z. B. über das ERP- und/oder CRM-System für strategische Entscheidungen sowie im operativen Management eher ungeeignet sind und effiziente Analyseinstrumente fehlen, um aus den Datenmengen die relevanten Informationen für Entscheidungsträger zu extrahieren. Die Verwendung von statistischer Signifikanz reicht hierzu nicht aus. Beim Data Mining kommen integrierte Methoden und Verfahren der Künstlichen Intelligenz und der Statistik sowie Modelle des Anwendungsbereiches zum Einsatz. Im Gegensatz zu den klassischen Methoden reduziert sich Data Mining nicht nur auf die Prüfung manuell aufgestellter Hypothesen, sondern erweitert den Ansatz durch Generierung neuer Hypothesen.
Data Mining setzt sich zusammen aus den Komponenten Datenzugriff, dem Modelltyp, dem Interessantheitsmaß und dem Suchverfahren. Der Prozess ist Teil des so genannten Knowledge Discovery in Databases (KDD). Häufig werden die Begriffe →Big Data und Data Mining im gleichen Kontext verwendet, was nicht korrekt ist. Big Data befasst sich mit besonders großen Datenmengen, die mit herkömmlichen Methoden und Tools nicht effizient verarbeitet werden können. Data Mining kommt zwar auch bei großen Datenmengen zum Einsatz, ist aber nicht auf Big Data beschränkt. Denn Data Mining erweitert den eigentlichen Vorgang um die Analyse von Daten in Bezug auf relevante Zusammenhänge und Erkenntnisse. Während Big Data große Datenmengen liefert und die geeignete technische Plattform für eine effiziente Verarbeitung zur Verfügung stellt, konzentriert sich Data Mining auf den eigentlichen Vorgang der Gewinnung von Erkenntnissen aus den vorliegenden Daten.
DBaaS (Database as a Service)
D wie DBaaS (Database as a Service)
DBaaS steht für Database as a Service und bezeichnet einen Service, bei dem Unternehmen ihre Datenbanken oder -systeme nicht mehr über die eigene Infrastruktur betreiben und durch eigene Mitarbeiter betreuen, sondern diese über eine Cloud eines Dienstleisters bereitgestellt bekommen. Dies spart personelle und technische Kapazitäten und somit Kosten. Außerdem können Unternehmen auf das Know-how und die Erfahrung des Anbieters zurückgreifen. Eine gesicherte Netzwerkverbindung sorgt dafür, dass alle Mitarbeiter und Programme jederzeit Zugang zu allen relevanten Informationen haben. Die Abrechnung erfolgt in Form eines nutzungsbezogenen Tarifs.
Database as a Service ist artverwandt mit →Platform as a Service oder →Infrastructure as a Service.
De Bono
D wie De Bono
→6 Hüte Methode
Deep Tech
D wie Deep Tech
Der Begriff Deep Tech taucht vor allem im Umfeld von Startups und Innovationen auf und bezeichnet innovative Technologien in vielen Bereichen. „Tech“ steht eindeutig für „Technologie“, während „Deep“ eine multidimensionale Bedeutung hat. Im Gegensatz zu anderen Technologieunternehmen, die auf bestehende Software zurückgreifen oder diese modifizieren und bei denen Technologie nur Mittel zum Zweck ist und nicht den Kern des eigentlichen Geschäftsmodells darstellt, steht die Technologie bei Deep Tech-Startups dagegen im Mittelpunkt. Des Weiteren ist typisch, dass deren Lösungen in der Regel für den B2B-Bereich entwickelt werden und einen hohen Innovationsgrad aufweisen. In einigen Fällen wird der Begriff Deep Tech auch synonym für Denkfabriken und/oder bahnbrechende wissenschaftliche oder technische Erkenntnisse verstanden. Unternehmen, die in diesem Bereich entwickeln oder ein Geschäftsmodell aufbauen, stehen häufig an der Schwelle zu bedeutenden Durchbrüchen, die auf Jahre den Markt beeinflussen oder auf Jahrzehnte verändern können. „Deep“ steht hierbei synonym für das Potenzial an Möglichkeiten, weshalb Deep Tech-Startups häufig in Verbindung mit künstlicher Intelligenz (KI) und maschinellem Lernen („Deep Learning“) erwähnt werden.
Deep Work
D wie Deep Work
→ Time Boxing
Deep Work Hypothese
D wie Deep Work Hypothese
Deep Work ist grundsätzlich keine neue Arbeitsmethode. Die Deep Work Hypothese dagegen wurde von Professor Cal Newport entwickelt und beschreibt eine hoch konzentrierte Arbeit für etwa vier Stunden, bei der man sich ohne Ablenkung oder Unterbrechung auf kognitiv anspruchsvolle Aufgaben konzentriert und somit wertvolle Ergebnisse in kürzerer Zeit erzielt. Die höchste Stufe wird erreicht, wenn die Ergebnisse schwer zu kopieren sind und einen unersetzlichen Mehrwert bieten. Newport ist überzeugt, dass dadurch die Sinnhaftigkeit der eigenen Arbeit auf einen hohen Level gehoben werden kann.
Das Gegenteil wird als Shallow Work bezeichnet: anspruchslose Arbeit, die keine speziellen Fähigkeiten oder Konzentration verlangt, sondern oberflächlich ist. Hierzu gehören unproduktive Meetings, der erfolglose Rückruf von Telefonaten, das Verfassen von operativen E-Mails, das Erstellen von Reporting oder Präsentationen, das Folgen von Social-Media-Kanälen und dgl. Der „Klassiker“ für unproduktive Arbeit ist das permanente Checken, Lesen und Beantworten von E-Mails. Lt. einer Studie der Harvard Business School-Professorin Leslie Perlow verbringen ca. 80% der Berufstätigen mehr als zwanzig Stunden pro Woche nur damit, ihren E-Mail-Account zu überwachen und zu reagieren. Oberflächliche oder anspruchslose Arbeit kann in Ausnahmen sogar hilfreich sein, wenn sie z. B. die Möglichkeit zur Entspannung oder Entschleunigung bietet. Wichtig ist nur, dass diese meist routinemäßigen Aufgaben keine höhere Bedeutung bekommen als die wichtigen Aufgaben mit Gestaltungs- und Entscheidungscharakter.
Professor Carl Newport ist überzeugt, dass in einer zunehmend wettbewerbsorientierten Arbeitswelt die High Performer über zwei grundlegende Fähigkeiten verfügen: sie können sich komplexe Themen und schwierige Dinge schnell aneignen, um spezifische Fähigkeiten und bestimmte Fertigkeiten zu beherrschen und auszuführen. Außerdem können sie qualitativ hochwertige Ergebnisse erzielen und einen intellektuellen Mehrwert schaffen. Die Deep Work Hypothese basiert auf der Formel für die Produktion von Qualität auf höchstem Niveau: Hochwertige Arbeit = (aufgewendete Zeit) x (Intensität der Konzentration). Um diese zu operationalisieren, schlägt Newport u. a. vor, die Aktivitäten in den sozialen Netzwerken auf max. 15 min. pro Tag in die Randzeiten zu verlagern und seinen Arbeitstag in Blöcke zu strukturieren und im Abgleich mit dem Bio-Rhythmus einzuteilen.
Delphi-Methode
D wie Delphi-Methode
Die Delphi-Methode kommt in der Zukunftsforschung zum Einsatz, auch wenn sie hierfür ursprünglich nicht entwickelt wurde. Die Anlehnung an das Orakel im altgriechischen Delphi ist tatsächlich kein Zufall. Bei der Delphi-Methode werden Interviews nach den Regeln der empirischen Sozialforschung mit mehreren Personen in mehreren Intervallen durchgeführt und ausgewertet. Anschließend werden die Ergebnisse verdichtet und in aufbereiteter Form zur erneuten Bewertung an dieselben Personen oder einen erweiterten Empfängerkreis gesendet. Die zweite Runde dient dazu, die Aussagen zu schärfen, ggf. durch neue Erkenntnisse anzureichern, verschiedene Aussagen zu priorisieren oder bei Widersprüchen abzuwägen und/oder nach zu justieren. In seltenen Fällen werden noch weitere Runden durchgeführt, wenn das Ergebnis der zweiten Welle noch nicht zufriedenstellend hinsichtlich der Forschungsfrage(n) war. Mit der Delphi-Methode bekommt die Meinungsforschung breite und tiefe Einblicke durch mehrere Menschen mit relevantem Fachwissen.
Deming-Zyklus
D wie Deming-Zyklus
→PDCA-Zyklus
Demografie
D wie Demografie
Demografie ist die Mutter aller →Megatrends. Die Veränderungen der globalen Bevölkerungsstruktur wie z. B. das Wachstum, die Verschiebung der Alterspyramide, radikal andere Prioritäten der jüngeren Generation, die Dichte, ethnische Zugehörigkeit, Migrationsdruck sowie unterschiedliches Bildungsniveau und viele andere demografische Aspekte führen zu signifikanten und nachhaltigen Veränderungen in allen Bereichen der Gesellschaft, der Wirtschaft und im Berufsleben.
Nach Prognosen der Vereinten Nationen wird die Weltbevölkerung bis 2030 um mehr als eine Milliarde Menschen wachsen, wobei ein Großteil dieses Wachstums in Schwellenländern stattfinden wird. Bis zum Jahr 2050 werden 80 Prozent der Weltbevölkerung im Alter von unter 60 Jahren in Ländern leben, die aktuell noch als weniger entwickelt gelten. Durch diese so genannten Emerging Markets verschieben sich die wirtschaftlichen Kräfteverhältnisse rund um den Globus. Gleichzeitig werden die Menschen immer älter, so dass sie länger im Ruhestand leben mit erheblichen Konsequenzen für das Gesundheitswesen und der wirtschaftlichen Herausforderung für eine angemessene Versorgung. Konkret bedeutet dieses Wachstum der Weltbevölkerung der über 65-Jährigen von 1,5 auf über 2 Mrd. Menschen, dass gleichzeitig die Zahl der Arbeitnehmer pro Rentner abnimmt (von aktuell 8 auf 4). Nach Analysen des Weltwirtschaftsforums wächst die Lücke in der Altersvorsorge in den acht großen Volkswirtschaften jeden Tag um 28 Mrd. US-Dollar und werden bis zum Jahr 2050 unfassbare 400 Billionen US-Dollar betragen. Dies wäre etwa das Fünffache des aktuellen Umfangs der Weltwirtschaft. Verstärkt wird das Problem der Überalterung dadurch, dass vor allem in den reicheren und gebildeteren Teilen der Gesellschaft immer weniger Kinder geboren werden. Während man noch vor einigen Jahren vor allem die westliche Welt als Hauptproblem der Überalterung ansah, entwickelt sich zunehmend der asiatische Raum als Hotspot. Bereits heute gibt es mehr über 65-Jährige in Asien als Menschen in den USA. Prognosen zufolge wird die Zahl der über 65-Jährigen in Asien bis 2045 sogar größer sein als die Bevölkerung in der Eurozone und Nordamerika zusammen.
Die mittel- bis langfristigen Auswirkungen dieser globalen demografischen Veränderungen werden sich in allen Bereichen bemerkbar machen. Die größten Auswirkungen werden sich in den Gesundheitsausgaben ergeben. Man schätzt, dass die Gesundheitsausgaben in älter werdenden Industrieländern im Jahr 2040 bis 2050 zwischen 5 und 10 Prozent des Bruttoinlandsproduktes liegen werden. Gleichzeitig wird der Markt für medizinische Technologien und Dienstleistungen rasant wachsen. Defizite infolge der demografischen Veränderungen werden Unternehmen zunehmend durch Technologie wie →Automation, →Robotik und →Künstliche Intelligenz kompensieren. Eine besondere Stellung werden sensitive, kollaborierende Roboter, so genannte →Cobots, einnehmen.
Der perfekte Sturm
D wie Der perfekte Sturm
Bei der Gefahr einer weltweiten Rezession (mindestens müssen Europa, die USA und China betroffen sein) spricht man von „Dem perfekten Sturm“. Die Bezeichnung wurde von dem US-Ökonom Kenneth Rogoff erstmals erwähnt und dient Ökonomen als Vorlage, wenn verschiedene Ereignisse gleichzeitig auftreten und ganze Volkswirtschaften in den Abgrund ziehen können. Die Vorlage liefert der gleichnamige Weltbestseller des Romanautors Sebastian Jungers, der von Star-Regisseur Wolfgang Petersen auf die Kinoleinwand projiziert wurde. „Der perfekte Sturm“ ist die Geschichte eines Fischerboots, das vor der Ostküste der USA in ein Wetterphänomen gerät, das nur alle hundert Jahre vorkommt. Mehrere Naturkatastrophen – jede für sich allein bereits eine zerstörende Naturgewalt – treffen aufeinander und richten großes Unheil an. Der „perfekte Sturm“ aus ökonomischer Sicht hat anders als die Romanvorlage gleich sieben Makrokräfte, die sich seit 2020 mit unterschiedlicher Stärke und Geschwindigkeit entwickeln und miteinander verzahnen. Hierzu gehören:
- Pandemie: Covid-19 hat die heiße Phase des Sturms eingeleitet. Eine Pandemie ähnlicher Tragweite hat die Welt seit der Spanischen Grippe vor mehr als 100 Jahren nicht mehr erlebt. Die Entschleunigung der Weltwirtschaft infolge der Corona-Krise schwächten Wirtschaft und Finanzen. Lockdowns an neuralgischen Punkten des Welthandels werden noch Jahre zu spüren sein, wenn die Pandemie längst verschwunden ist.
- Krieg: Für jüngere Menschen in der Europäischen Union war es unvorstellbar, dass auf ihrem Kontinent ein Krieg stattfinden kann. Dieser reduziert sich nicht mehr nur auf militärische Handlungen, sondern ist zu einem Wirtschaftskrieg mutiert, in dem es vor allem um Energielieferungen in den Westen und Getreidelieferungen in die ganze Welt geht. Deutschland trifft die reduzierten bis ausbleibenden Gaslieferungen besonders hart.
- Inflation: Lt. Statistischem Bundesamts sind die Preise für Waren und Dienstleistungen im Oktober 2022 um ca. 10 Prozent teurer gewesen als im vergleichbaren Vorjahresmonat und damit auf einem Höchststand seit 1950. Preistreiber für Gas, Heizöl und Benzin sowie einige Lebensmittel ist der Krieg in der Ukraine. Unabhängig davon steigen vor allem in den Ballungsgebieten nach wie vor die Mieten. Diese Preiserhöhungen schlagen sich in der Inflationsrate nieder. Hinzu kommt der Zinskurs der Zentralbank (EZB) und Politik der Notenbanken sowie die finanziellen Folgen der Pandemie.
- Zinsen: Als Reaktion auf die Inflation heben die Zentralbanken die Zinsen an. Allerdings zu spät und nicht konsequent, wie führende Ökonomen kritisieren. Entweder heben Zentralbanken die Zinsen zu zögerlich an und somit ohne nennenswerte Effekte oder zu großzügig und riskieren das Abwürgen des Wirtschaftswachstums, weil Kredite für Investitionen zu teuer werden. Die Folge wäre eine Rezession.
- Arbeitsmarkt: Viele Unternehmen befinden sich aktuell in einem Dilemma. Die einen können sich die Energiekosten nicht mehr leisten, den anderen fehlt Material für ihre Produkte. Fehlender Absatz führt zu deutlichen Umsatzrückgängen bei gleichzeitig steigenden Kosten. Die Folge: ein Arbeitskräfteüberschuss bei gleichzeitigem Fachkräftemangel lässt den Arbeitsmarkt kollabieren. Entlassungen und Kurzarbeit treffen Arbeitnehmer, deren Schulden durch die Zinsentwicklung rasant ansteigen. Pandemiebedingt (Lockdowns) trifft dies vor allem den Niedriglohnsektor.
- Materialbeschaffung: Die Pandemie wurde zum Brennglas für die hohe Abhängigkeit von Rohstoffen und Materialien aus Asien. Viele Waren hängen in Containern in irgendwelchen Häfen fest. Pandemiebedingt wurden viele Arbeitskräfte abgebaut, die nun erst wieder langsam aufgebaut werden müssen. Der Krieg in der Ukraine zeigt die hohe Abhängigkeit fossiler Rohstoffe aus Russland und ist Preistreiber für energieintensive Produkte. Dies führt u. a. auch zu Einbrüchen in der Bau- und Immobilienbranche. Materialengpässe, hohe Zinsen und hohe Baukosten stellen für viele Bauherren ein unkalkulierbares Risiko dar.
- Geostrategische Gefahr: Der Krieg in der Ukraine und seine wirtschaftlichen und politischen Folgen verdeutlichen, dass ein totalitäres Regime zu einem unberechenbaren Risiko werden kann. Neben Russland wird auch China zu einem unkalkulierbarem Partner. Beide Supermächte streben nach einer neuen Weltordnung, was die USA auf den Plan ruft und eigene Interessen hervorruft. Europa und Deutschland mit seinen Abhängigkeiten von diesen Supermächten hat aktuell wenig entgegen zu setzen. Die unterschiedlichen Interessen innerhalb der EU machen einen Gegenpol nicht einfacher.
Wie in der Romanvorlage „Der perfekte Sturm“ treffen auch wirtschaftspolitisch seltene Faktoren und Ereignisse aufeinander und haben eine Situation geschaffen, die kaum hätte schlimmer werden können und die es so noch nicht gegeben hat. Die sieben Makrokräfte und ihre Auswirkungen auf die globale Wirtschaft sind beispiellos und treten in einer Zeit auf, die ohnehin schon durch Disruption und Ungewissheit geprägt war.
Design Thinking
D wie Design Thinking
Design Thinking ist ein markt- und kundenzentrierter sowie iterativer Ansatz für die Lösung von komplexen Problemen und zur Entwicklung neuer Ideen. Im Gegensatz zu anderen Innovationsmethoden wird Design Thinking nicht als Methode oder Prozess, sondern als Ansatz beschrieben, der auf den Grundprinzipien Team, Raum und Prozess sowie der Abwägung von Nutzen und Wirtschaftlichkeit, technologische Umsetzbarkeit und Marktrelevanz beruht. Die Namensgebung wird auf die Arbeitsweise von Designern zurückgeführt, die bei ihrer Arbeit einem intuitiven Prozess folgen, der im Kern auf Beobachtung und einer hohen Nutzerzentrierung basiert. Mit seiner offenen, kreativen und gleichzeitig systematischen Herangehensweise bietet Design Thinking ein strukturiertes Vorgehensmodell für unterschiedliche Fragestellungen und Problembereiche. Im Zuge der Digitalisierung bietet Design Thinking eine geeignete Methode, um digitale Produkte, Services und Geschäftsmodelle zu entwickeln.
Im Kern basiert Design Thinking auf der Annahme, dass Probleme besser gelöst werden können, wenn Menschen unterschiedlicher Kompetenzen in einem die Kreativität fördernden Umfeld zusammenarbeiten, gemeinsam eine Fragestellung entwickeln, die Bedürfnisse und Motivationen von Menschen berücksichtigen und dann Konzepte entwickeln, die mehrfach geprüft (Iteration) werden. Design Thinking setzt dabei grundlegend auf Empathie.
Der Design Thinking Prozess ist das Herzstück, der Start und vor allem das Ende sind charakteristisch. Der Start beginnt mit einem “Beginners Mind” und der Haltung, dass man nichts weißt. Das Ende ist erreicht, wenn eine Idee materialisiert und konkret implementiert wurde. Der Verlauf dazwischen ist ein iterativer Prozess, in dessen Zentrum der Nutzer und seine Bedürfnisse stehen. Es existieren verschiedene Modelle des Design-Thinking-Prozesses. Am bekanntesten ist das Modell der sechs Schritte:
- Verstehen: Das Problem wird definiert und ein gemeinsames Verständnis geschafft.
- Beobachten: Die Kundenperspektive wird eingenommen und der Bedarf und die Bedürfnisse ermittelt. Absolute Kundenorientierung steht im Vordergrund.
- Standpunkt definieren: Die Ergebnisse der ersten beiden Schritte werden verdichtet und durch Techniken wie Buyer Personas oder Point-of-View validiert.
- Ideen finden: Zu Beginn der Ideenfindung steht ein allgemeines Brainstorming oder andere Kreativitätstechniken. Wichtig ist, dass es in dieser Phase keine Denkverbote gibt und jegliche Ideen ergebnisoffen zusammengetragen werden. Die Ergebnisse werden strukturiert und nach Prioritäten sortiert. Hierbei wird eine erste Gewichtung in Fragen der Effizienz, der Umsetzbarkeit oder der Wirtschaftlichkeit vorgenommen.
- Prototyp: Anschließend wird ein Prototyp erstellt. Hierzu kommen Techniken wie z. B. Wireframes, Post-its, Rollenspiele, Storyboards oder dgl. zum Einsatz. Wichtig ist, dass der Prototyp auf die Bedürfnisse des Kunden ausgerichtet ist und die Lösung seines Problems darstellt.
- Testen: Abschließend müssen die Erkenntnisse und Ergebnisse getestet werden. Funktioniert der Prototyp nicht oder entspricht er nicht den Bedürfnissen der Kunden, kann diese wieder verworfen werden. Dabei spielt Feedback eine wichtige Rolle. Es ist durchaus üblich, dass es bei neuen Produkten mehrere Testphasen gibt, bis das Produkt freigegeben werden kann.
Detraktoren
D wie Detraktoren
Der Begriff Detraktoren beschreibt unzufriedene Kunden, die mit großer Wahrscheinlichkeit bei einem bestimmten Unternehmen oder ein bestimmtes Produkt nicht mehr kaufen werden. Diese lassen sich mithilfe von Umfragen für den →Net-Promoter-Score identifizieren. Detraktoren sind deshalb ein Problem für Unternehmen, da sie in der Regel ihre Unzufriedenheit nicht nur für sich behalten, sondern diese auch anderen mitteilen und somit evtl. andere Kunden davon abhalten können, zukünftig mit der Marke zu interagieren. Deshalb wiegt die Kritik von Detraktoren in der Regel schwerer als die Unterstützung von →Promotoren. Detraktoren können aber auch von Nutzen sein, wenn ihr negatives Feedback genutzt wird, um Verbesserungen bzgl. des Produktes, des Services oder des Unternehmens allgemein vorzunehmen. Idealerweise schafft man es, Detraktoren in Promotoren umzuwandeln.
DGNB
D wie DGNB
Die Deutsche Gesellschaft für Nachhaltiges Bauen (DGNB) definiert in Deutschland die Standards für →nachhaltiges Bauen, auch →Green Building genannt. Ein Team aus Architekten, Bauunternehmern und Wissenschaftlern entwickelt konzeptionelle Ziele und bewertet nachhaltige Gesamtkonzepte anhand ihrer ökologischen, ökonomischen, sozialkulturellen und funktionalen Qualität. Hierbei werden keine Einzelmaßnahmen bewertet, sondern Abhängigkeiten und Wechselwirkungen über kompletten Lebenszyklus. Erreicht ein Neubau- oder Bestandsprojekt die Zielwerte, wird das Gütesiegel „Nachhaltiges Bauen“ verliehen, das die DGNB in den Kategorien Bronze, Silber, Gold und Platin vergibt. Die Nachweisführung für das Bauen im Bestand ist deutlich einfacher, da auf echte Daten zurück gegriffen werden kann, während für Neubauten aufwändige Simulationen durchgeführt werden müssen.
DGSVO (Datenschutz-Grundverordnung)
D wie DGSVO (Datenschutz-Grundverordnung)
Die Datenschutz-Grundverordnung (DSGVO) ist eine Verordnung der Europäischen Union, mit der die Regeln zur Verarbeitung personenbezogener Daten europaweit vereinheitlicht und geregelt werden. Sie trat am 25. Mai 2018 unmittelbar in allen EU-Mitgliedsstaaten in Kraft. Das oberste Ziel ist der Schutz personenbezogener Daten innerhalb der Europäischen Union sowie die Gewährleistung des freien Datenverkehrs innerhalb des Europäischen Binnenmarktes. Die DSGVO besteht aus 99 Artikeln in elf Kapiteln:
- Kapitel (Artikel 1 bis 4): Allgemeine Bestimmungen (Gegenstand und Ziele, sachlicher und räumlicher Anwendungsbereich, Begriffsbestimmungen)
- Kapitel (Artikel 5 bis 11): Grundsätze und Rechtmäßigkeit (Grundsätze und Rechtmäßigkeit der Verarbeitung personenbezogener Daten, Bedingungen für die Einwilligung, Verarbeitung besonderer Kategorien personenbezogener Daten)
- Kapitel (Artikel 12 bis 23): Rechte der betroffenen Person (Transparenz und Modalitäten, Informationspflichten des Verantwortlichen und Auskunftsrecht der betroffenen Person zu personenbezogenen Daten, Berichtigung und Löschung – das „Recht auf Vergessenwerden“ – Widerspruchsrecht und automatisierte Entscheidungsfindung im Einzelfall einschließlich Profiling, Beschränkungen)
- Kapitel (Artikel 24 bis 43): Verantwortlicher und Auftragsverarbeiter (Allgemeine Pflichten, Sicherheit personenbezogener Daten, Datenschutz-Folgenabschätzung und vorherige Konsultation, Datenschutzbeauftragter, Verhaltensregeln und Zertifizierung)
- Kapitel (Artikel 44 bis 50): Übermittlungen personenbezogener Daten an Drittländer oder an internationale Organisationen
- Kapitel (Artikel 51 bis 59): Unabhängige Aufsichtsbehörden
- Kapitel (Artikel 60 bis 76): Zusammenarbeit und Kohärenz, Europäischer Datenschutzausschuss
- Kapitel (Artikel 77 bis 84): Rechtsbehelfe, Haftung und Sanktionen
- Kapitel (Artikel 85 bis 91): Vorschriften für besondere Verarbeitungssituationen (u. a. Verarbeitung und Freiheit der Meinungsäußerung und Informationsfreiheit, Datenverarbeitung am Arbeitsplatz, Zugang der Öffentlichkeit zu amtlichen Dokumenten, Verarbeitung zu im öffentlichen Interesse liegenden Archivzwecken, zu wissenschaftlichen oder historischen Forschungszwecken und zu statistischen Zwecken, bestehende Datenschutzvorschriften von Kirchen und religiösen Vereinigungen oder Gemeinschaften)
- Kapitel (Artikel 92 bis 93): Delegierte Rechtsakte und Durchführungsrechtsakte
- Kapitel (Artikel 94 bis 99): Schlussbestimmungen (u. a. Aufhebung der Richtlinie 95/46/EG und Inkrafttreten der DSGVO)
Unter dem Begriff der „personenbezogenen Daten“ werden alle Informationen zusammen gefasst, die sich auf eine identifizierte oder identifizierbare natürliche Person beziehen. Als identifizierbar wird eine natürliche Person angesehen, die direkt oder indirekt, insbesondere mittels Zuordnung zu einer Kennung wie einem Namen, zu einer Kennnummer, zu Standortdaten, zu einer Online-Kennung oder zu einem oder mehreren besonderen Merkmalen, die Ausdruck der physischen, physiologischen, genetischen, psychischen, wirtschaftlichen, kulturellen oder sozialen Identität dieser natürlichen Person sind, identifiziert werden kann. Übersetzt heißt dies, dass hierzu alle Angaben zu einer Person wie Namen, Geburtstag, Wohnort bzw. Adressen, medizinische Daten, Fotos, E-Mail-Adressen, Bankdaten bis zu Beiträgen in den sozialen Netzwerken oder auch IP-Adressen zählen. Daten, aus denen die ethnische Herkunft, politische Meinungen, religiöse oder weltanschauliche Überzeugungen, die Gewerkschaftszugehörigkeit sowie genetische Daten, Gesundheitsdaten und Daten oder Angaben zur sexuellen Orientierung einer natürlichen Person hervorgehen, dürfen nicht verarbeitet werden. Hierbei wird zwischen personenbezogenen Daten im privaten, öffentlichen oder arbeitsbezogenen Umfeld einer Person nicht unterschieden – es geht immer um die Person selbst.
Des Weiteren gilt, dass die Verarbeitung personenbezogener Daten nur aufgrund einer aktiven Erlaubniserteilung zulässig ist. Diese sind in Art. 6 aufgeführt, wovon mindestens einer erfüllt sein muss:
- die betroffene Person hat ihre Einwilligung gegeben
- die Verarbeitung ist für die Erfüllung eines Vertrags oder zur Durchführung vorvertraglicher Maßnahmen erforderlich
- die Verarbeitung ist zur Erfüllung einer rechtlichen Verpflichtung erforderlich
- die Verarbeitung ist erforderlich, um lebenswichtige Interessen zu schützen
- die Verarbeitung ist für die Wahrnehmung einer Aufgabe erforderlich, die im öffentlichen Interesse liegt
- die Verarbeitung ist zur Wahrung der berechtigten Interessen des Verantwortlichen oder eines Dritten erforderlich.
Im letzten Fall ist eine Interessensabwägung gegenüber den Interessen der betroffenen Person erforderlich.
Für Unternehmen hat die DSGVO erhebliche Auswirkungen, nicht nur im Marketing und Vertrieb, sondern auch im HR-Bereich. Für die Nichteinhaltung der Grundsätze und Rechenschaftspflicht können Unternehmen mit einem Bußgeld in Höhe von bis zu 20 Millionen EUR oder bis zu 4% seines gesamten weltweit erzielten Jahresumsatzes geahndet werden. Das europäische Datenschutzrecht gilt auch für Unternehmen außerhalb der EU, soweit diese ihre Waren oder Dienstleistungen im europäischen Markt anbieten. Somit greift die DSGVO auch für die US-amerikanischen Internet-Konzerne.
Betroffene Personen müssen darauf vertrauen dürfen, dass Unternehmen bei der technischen Gestaltung („privacy by design“, „data protection by design“) sowie durch datenschutzfreundliche Voreinstellungen („privacy by default“, „data protection by default“) die grundsätzlichen Anforderungen an den geforderten Datenschutz von der ersten Nutzung an sicherstellen.
Eines der zentralen Anliegen der DSGVO ist das Recht auf Vergessenwerden, das in der Überschrift des Art. 17 ausdrücklich so genannt wird. Es umfasst einerseits, dass eine betroffene Person das Recht hat, das Löschen aller sie betreffenden Daten zu fordern, wenn die Gründe für die Datenspeicherung entfallen. Dabei ist zu beachten, dass der Verantwortliche Daten von sich aus löschen muss, wenn die Rechtsgrundlage für die weitere Verarbeitung entfallen ist. Juristen sind weiterhin uneins, ob z. B. gesetzliche Aufbewahrungspflichten für Unternehmen dem entgegenstehen können. Generell kommt von Medienrechtlern grundsätzliche Kritik an der neuen Datenschutz-Grundverordnung. Diese bemängeln, dass die Verordnung viele Themen und Herausforderungen für den Datenschutz in Suchmaschinen, Sozialen Netzwerken, Big Data und Smart Data, Cloud Computing bis hin zur Künstlichen Intelligenz ignoriert, unterschätzt oder als nicht umsetzbar gestaltet. Auch der Deutsche Anwaltverein sieht Änderungsbedarf, da die vom Gesetzgeber geforderten berufsspezifischen Rechte und Pflichten der Rechtsanwälte nur mit den in der DSGVO hinterlegten Öffnungsklauseln möglich ist, um ein Mandat rechtskonform sicherstellen zu können.
Ein bisher wenig beachtetes Problem ergibt sich aus der Datenerhebung vor Inkrafttreten der DSGVO für die langfristige Speicherung und Weiterverarbeitung personenbezogener Daten wie dies insbesondere in den Bereichen Business Intelligence, Data Warehouse und Machine-Learning der Fall ist. Hierzu gehören u. a. die Interaktion mit Kampagnen und Kanälen, Kaufhistorien, Nutzerinteressen, Kundenstatus oder Cross-Device-Informationen. Alle diese Algorithmen benötigen die Speicherung personenbezogener Daten über einen längeren Zeitraum. Viele dieser Daten wurden vor Einführung der DSGVO oftmals ohne aktive und vorherige Einwilligung gespeichert. Ein nachträgliches Löschen würde erhebliche Löcher in die Tracking-Daten reißen, da nur ein kleiner Prozentsatz von Nutzern nachträglich bereit ist, eine aktive Zustimmung zu erteilen.
Digitale Ethik
D wie Digitale Ethik
Der Begriff der digitalen Ethik (digital ethics) wird unterschiedlich eingesetzt und beschäftigt sich mit moralischen Fragen des digitalen Wandels. Grundsätzlich setzt sich die digitale Ethik mit den sittlichen Grenzen auseinander, die sich durch die Digitalisierung neu gebildet haben oder durch diese verschoben wurden. Einerseits liegt der Fokus auf der technologischen Entwicklung und hinterfragt, wie weit technische Möglichkeiten genutzt werden dürfen, wenn sie z. B. Vorteile für die eine Nutzergruppe und gleichzeitig Nachteile oder Schaden für eine andere Nutzergruppe schafft (Technikethik). Auf der anderen Seite setzt sich die digitale Ethik mit den zwischenmenschlichen Beziehungen in einer digitalen Welt auseinander (Medienethik). Dazwischen liegt das weite Feld im Umgang mit Daten und Datenschutz, nachdem Informationen eine immer wichtigere Ressource wird (Medienethik).
Somit deckt die digitale Ethik ein breites Spektrum ab, reflektiert kritisch die Entwicklungen der Digitalisierung und fragt nach sittlich-moralischen Grenzen des Erlaubten oder Vertretbaren. Die Grundphilosophie hinter der digitalen Ethik lautet: Das Verhältnis zwischen Mensch und Maschine sollte in einer zunehmend technologisierten Gesellschaft nicht nur durch das technisch Machbare, sondern auch durch das moralisch Wünschenswerte bestimmt werden. Die Werte einer freiheitlich-demokratischen Gesellschaft reduzieren sich nicht auf die analoge Welt, sondern sind auch in sämtlichen digitalen Formaten anzuwenden. Daher formuliert die digitale Ethik Handlungsanweisungen und Empfehlungen (keine Verbote!), da eine allgemeine Akzeptanz für die Ethik von zentraler Bedeutung ist.
Der Schwerpunkt der digitalen Ethik beschäftigt sich mit der Erhebung und Verwendung von Daten und dies im Zusammenhang mit dem Datenschutz. Somit ist die digitale Ethik die moralische Messlatte für die Datenökonomie. Außerdem liegt ein Schwerpunkt in der Anonymität im Internet und der sich daraus ergebenden Probleme (z. B. anonymes Cybermobbing). Ebenfalls beschäftigt sich die digitale Ethik mit dem Einsatz von künstlicher Intelligenz in besonders sensiblen Bereichen wie z. B. der Medizin oder der Sicherheit z. B. beim Abwägen von Personenschäden beim autonomen Fahren. Außerdem setzt sich die digitale Ethik mit der Herausforderung des digitalen Wohlbefindens auseinander und sucht nach Lösungen, wie trotz oder wegen der demografischen Entwicklung die Digitalkompetenz der Gesellschaft sichergestellt werden kann und ältere und/oder weniger technikaffine Menschen nicht abgehangen werden.
Digitale Innovationen
D wie Digitale Innovationen
Nicht jede digitale Entwicklung ist automatisch eine Innovation. Und eine Innovation muss nicht zwangsläufig auf digitaler Basis stattfinden. Da beide Begriffe allerdings häufig synonym verwendet werden, ist bei vielen Menschen genau dieser Eindruck entstanden. Mit Innovation wird vielfach Digitalisierung verstanden und Digitalisierung übersetzen viele Menschen mit Transformation als höchste Stufe oder Disruption als radikalste Form von Veränderungen. Digitalisierung hat den Innovationsbegriff komplett verändert und radikal erweitert. Deshalb ist wichtig, digitale Lösungen als operative Unterstützung von digitalen Innovationen zu differenzieren und je nach Anwendung zu kategorisieren. So unterscheiden sich z. B. hybride Lösungen, bei denen analoge Prozesse digitalisiert werden von digitalen Prozessen in Organisationen. Davon unterscheiden sich digitale Tools zur Unterstützung analoger oder integriert in digitale Prozesse vom digitalen Servicedesign oder der digitalen Supply Chain. Digitale Geschäftsmodelle und -prozesse sind nicht gleichzusetzen mit digitalen Tools zur Beratung und Bestellung oder digitalen (agilen, iterativen) Arbeitsmethoden wie z. B. Srum, Kanban, Sprints und dgl. Auch digitales Projektmanagement wie das Monitoring des gesamten Innovationsprozesses inkl. Ressourcenmanagement, Risikomanagement, Trendscouting usw. stellt eine eigene Disziplin dar und darf mit den vorhergenannten Begriffen nicht verwechselt oder synonym gleichgesetzt werden.
Digitale Innovationen werden in verschiedene Bereiche unterschieden wie
- Geschäftsbeziehung (Kunden-, Lieferanten- und Partnerbeziehung),
- Leistungsebene (Produktangebot, Services und Dienstleistungen) und
- Organisation (Prozesse, Strukturen, Datenmanagement und Monitoring, Kultur und Führung).
In der Operationalisierung von digitalen Innovationen hat sich bewährt, in Anlehnung an das klassische Canvas-Modell das „Digital Innovation Model“ anzuwenden.
Digitale Lösungen zur operativen Unterstützung von analogen und/oder digitalen Geschäftsprozessen, digitale Innovationen im Servicedesign und/oder digitale Geschäftsmodellinnovationen werden wesentlich durch die Treiber der Digitalen Transformation beeinflusst. Entscheidend ist, ob Innovationen eher markt- oder technologiegetrieben sind. Oder anders ausgedrückt: muss die Technologie entwickelt werden, um eine Idee umsetzen zu können oder bereitet die Technologie den Boden, um neue Ideen entwickeln zu können.
Digitalen Vertrieb
D wie Digitalen Vertrieb
→Vertrieb der Zukunft
Digitaler Geruch / digitaler Geschmack
D wie Digitaler Geruch / digitaler Geschmack
Die Wissenschaft und Forschung arbeitet seit einiger Zeit daran, den Geruch und den Geschmack zu digitalisieren. Das Potenzial und die Möglichkeiten für eCommerce und andere Anwendungen wären gigantisch. Beide Projekte sind sehr anspruchsvoll, da geruchs- und/oder geschmacksintensive Stoffe nicht selten über hunderte verschiedene Komponenten verfügen. Hierbei geht es nicht um ein Parfüm oder eine asiatische Suppe, an die man spontan denkt. Selbst vermeintlich „einfache“ Lebensmittel wie z. B. Kaffee können bis zu 200 Duftkomponenten enthalten. Das menschliche Gehirn wertet die Informationen über Geschmack und Geruch gleichzeitig aus, da der Mensch nur so z. B. die Feinheiten eines Gerichtes schmecken und riechen kann. In dem Forschungsprojekt werden die verschiedenen Bestandteile, die den Geruch oder Geschmack verursachen, zerlegt und die Elemente der Komponenten anschließend entschlüsselt. Hierbei spielen nicht nur Art und Menge der Komponenten eine große Rolle, sondern auch deren Konzentration. Mit Hilfe leistungsstarker Computer und spezieller Software können die Geruchs- und Geschmacksinformationen in einen digitalen Code oder Schlüssel transferiert werden. Damit der Mensch diesen digitalisierten Duft oder Geschmack wieder aufnehmen kann, wird ein Duft- oder Geschmacksproduzent benötigt, der echte Materie produziert. An diesem Punkt hängen aktuell die Entwicklungen, da die Wissenschaft und Forschung trotz anfänglicher Erfolge noch keine reproduzierbare Lösung gefunden hat. Generell lässt sich festhalten, dass die Entwicklung beim Geschmack und bei den Düften noch in den Kinderfüßen steckt und auch erst knapp 30 Basisdüfte entschlüsselt wurden, während die menschliche Nase über 350 Arten von Geruchsrezeptoren besitzt.
Digitaler Reifegrad
D wie Digitaler Reifegrad
Mit dem digitalen Reifegrad wird der aktuelle Stand eines Unternehmens auf dem Weg zur digitalen Transformation bezeichnet. Dieser wird häufig in Form eines Faktors ausgewiesen. Der digitale Reifegrad ist nicht nur für Unternehmen wichtig, um den Status quo zu dokumentieren, sondern auch um konkrete Handlungsoptionen aufzuzeigen. Je höher der Reifegrad ausgewiesen wird, desto weiter hat ein Unternehmen z. B. seine digitalen Prozesse automatisiert oder sein Geschäftsmodell digitalisiert oder auch die Unternehmenskultur transformiert. Der digitale Reifegrad ist somit ein Instrument zur systematischen Überprüfung und Bewertung sowie kontinuierlichen Weiterentwicklung von Technologie und Ökosystemen, Fähigkeiten und Kompetenzen, Prozessen und Strukturen sowie Rahmenbedingungen für Organisationen. Dabei betrachtet der Digitale Reifegrad unterschiedliche Dimensionen. Hierzu gehören
- Strategie wie z. B. Aspekte der Unternehmensführung, strategische Digitalisierungsziele, digitale Geschäftsmodellentwicklung oder -innovationen sowie Investitionen in Digitalisierungstechnologien
- Technologie wie z. B. IT-Infrastruktur und Ökosystem, Big Data und Datenmanagement
- Produkt und Dienstleistungen wie z. B. Produktentwicklung sowie smarte Produkte und intelligente Services
- Organisation und Prozesse wie z. B. Standardisierungsgrad, Agilität von Prozessen sowie Innovationsmanagement
- Mitarbeiter wie z. B. Aufgaben und Zuständigkeiten, Qualifikation und Kompetenzen wie z. B. der Methodenkoffer, Motivation und Führung sowie Unternehmenskultur als Rahmen für den Change-Prozess.
Es gibt eine ganze Reihe von Tests, mit denen der digitale Reifegrad von Unternehmen gemessen werden kann wie z. B. der →Readiness-Check. Alternativ werden immer öfter Ansätze aus dem Gamification genutzt wie z. B. Serious Games.
Digitaler Zwilling
D wie Digitaler Zwilling
Der Begriff digitaler Zwilling wird synonym und „unscharf“ für verschiedene Funktionen verwendet. Zum einen steht der Begriff für virtuelle oder digitale Assistenten. Auch für eine digitale Kopie oder Dublette einer analogen Vorlage wird der Begriff verwendet. Hierbei kann es sich um ein computergestütztes Modell eines materiellen oder immateriellen Objektes handeln wie z. B. ein Produkt, Service oder Geschäftsmodell. Man spricht dann auch von virtuellen oder digitalen Zwillingen im „realen Raum“. Alternativ wird der Begriff auch für die digitale Repräsentanz materieller oder immaterieller Objekte in einem digitalen Geschäftsmodell verwendet. Dann werden virtuelle oder digitale Zwillinge im „virtuellen Raum“ beschrieben. Werden beide Optionen miteinander verbunden, spricht man auch vom „digitalen Avatar“. In dem Fall ist ein digitaler Zwilling ein virtuelles Modell z. B. eines Prozesses, eines Produktes oder einer Dienstleistung, mit der die reale und virtuelle Welt miteinander verbunden werden. Je nach Anwendung verwenden diese digitalen Zwillinge reale Daten von z. B. installierten Sensoren, mit denen z. B. Arbeitsbedingungen repräsentiert werden. Diese Kopplung der virtuellen und realen Welt ermöglicht die Analyse von Daten und die Überwachung von Systemen, um z. B. Probleme rechtzeitig zu erkennen, zu verstehen und zu reagieren, bevor diese überhaupt auftreten. Somit können Ausfallzeiten vermieden und/oder Prozesse on Demand optimiert werden.
Digitales Befähigungsmodell
D wie Digitales Befähigungsmodell
Die digitale Transformation von Unternehmen ist weder ein Projekt noch ein digitaler Prozess. Der Erfolg wird maßgeblich davon abhängen, ob und wie sich Unternehmen mit ihren Organisationen und Strukturen flexibel und dynamisch an die sich kontinuierlich verändernde Umgebung anpassen können – und dies in allen Unternehmensbereichen. Hilfestellung bietet das digitale Befähigungsmodell, mit dem im ersten Schritt der digitale Reifegrad von Unternehmen bestimmt wird. Dieser analysiert den individuellen Ausgangspunkt, um passgenaue Zielstellungen und zielgerichtete Maßnahmen für eine erfolgreiche Transformation zu entwickeln. Das digitale Befähigungsmodell von e-nnovalytics® umfasst sechs Bereiche:
- Ziele und Strategie
- Kultur und Werte
- Führung und Zusammenarbeit
- Organisation, Struktur und Zuständigkeiten
- Daten, Prozesse und Abläufe
- Technologie, Know-how und Kompetenzen
Die Reihenfolge der sechs Bereiche richtet sich nach dem strategisch konzeptionellen Grad und wird mit jedem weiteren Bereich operativer. Ein entsprechendes Framework unterstützt die konkrete Umsetzung und hilft dabei, ein gemeinsames Verständnis über Digitalisierung, Innovation, Transformation und Agilität zu entwickeln. Es unterstützt bei der Entwicklung einer Innovations- und/oder Digitalisierungsstrategie sowie einer operativen Roadmap. Außerdem gibt es Hilfestellung, wie Unternehmen digitale Fähigkeiten aufbauen und agile Methoden im Alltag einsetzen. Der Aufbau einer innovationsfreundlichen Unternehmenskultur gehört genauso dazu wie Digital Leadership, agile Kollaboration und die Integration und Motivation aller Mitarbeiter. Somit schafft das Befähigungsmodell das Fundament für digitale Innovationen.
Neben dem Framework gibt es auch die Möglichkeit, den digitalen Reifegrad von Unternehmen über Gamification zu ermitteln. Hierzu wurde unter der Marke Innogramm® ein Serious Game entwickelt. Dieses Plan- und Strategiespiel nutzt die gamifizierte Diagnostik, um den Reifegrad von Unternehmen, Geschäftseinheiten, Abteilungen oder einzelner Mitarbeiter zu bestimmen, um anschließend individuelle Lösungen zur Optimierung zu entwickeln.
Digitale Sprachassistenten
D wie Digitale Sprachassistenten
Digitale Sprachassistenten werden synonym auch als virtueller Assistent bezeichnet und beschreiben eine Software, die mit Hilfe von Spracheingabe bedient wird. Für die Nutzung der Geräte, Apps oder Anwendungen ist keine Tastatur notwendig. Die Assistenten starten mit Hilfe eines bestimmten Aktivierungswortes, wodurch ein Mikrofon gestartet wird und die Spracheingabe aufnimmt. Diese wird an ein Ökosystem gesendet, das die Spracheingabe mit Hilfe von Algorithmen, Big Data und künstlicher Intelligenz in Echtzeit verarbeitet. Das Ergebnis wird in der Regel ebenfalls in gesprochener Form ausgegeben. Digitale Sprachassistenten verwenden verschiedene Voice-Technologien wie z. B. Speech-to-Text oder Text-to-Speech-Verfahren, Slot Filling sowie Intenterkennung. Optimiert mit künstlicher Intelligenz kann die Spracheingabe schnell und präzise in Textform transkribiert werden und umgekehrt. Mittels Deep Neural Networks können digitale Sprachassistenten die Absicht des Nutzers ermitteln (Intent Recogniton) und durch gezieltes Nachfragen näher konkretisieren oder bei Unklarheiten durch intelligentes Nachfragen spezifizieren.
Alle großen Internetkonzerne haben eine eigene Technologie für digitale Sprachassistenten. Alexa von Amazon, Siri von Apple, Cortana von Microsoft, der Google Assistant oder Bixby von Samsung haben hierbei einen unterschiedlich großen Funktionsumfang. Alle diese Sprachassistenten sind für den B2C-Markt konzipiert und weisen im B2B-Markt einige Defizite auf. Neuentwicklungen wie z. B. Kidou schließen diese Lücke. Diese digitalen Sprachassistenten sind nicht mehr nur auf „Befehle“ programmiert, sondern können auf umgangssprachliche Fragestellungen eingehen. Durch gezieltes Training erkennen diese neuen Sprachassistenten auch Fachbegriffe, Umgangssprache und selbst Dialekt. Eine Anbindung an das unternehmenseigene Ökosystem ermöglicht einen fachspezifischen Dialog.
Digitale Wasserzeichen
D wie Digitale Wasserzeichen
Ein digitales Wasserzeichen kann als Code oder Zeichenfolge in einer Bild-, Ton- oder Videodatei, aber auch in Programmen oder anderen digitalen Dokumenten eingebettet werden. Der Begriff wird für zwei unterschiedliche Anwendungen gebraucht.
Zum einen dient er dazu, einen Urheber oder einen berechtigten Benutzer eindeutig zu identifizieren. Digitale Wasserzeichen können sich an zufälligen Stellen des Dokumentes wiederholen. Dies soll sowohl die Erkennung, als auch das Entfernen erschweren. Mit diesem digitalen Wasserzeichen sollen also vorwiegend urheberrechtlich geschützte Werke der entsprechenden Schöpfer von Inhalten, vor einer illegalen Verwendung und Verbreitung geschützt werden. Die Verteilung an sich kann das Wasserzeichen in vielen Fällen nicht verhindern, aber es vereinfacht es für Rechteinhaber eine unrechtmäßige Weitergabe oder Nutzung zu erkennen.
Eine weitere Anwendung besteht in so genannten Smart Labels (elektronische Etiketten), in denen digitale Wasserzeichen eingesetzt werden, um z. B. analoge Verpackungen mit digitalen Services zu verknüpfen. Sie sind die Weiterentwicklung des Strich- oder QR-Codes und werden als digitale Wasserzeichen, DW- oder 3D-Codes bezeichnet. Außerdem kommen RFID- oder NFC-Tags zum Einsatz. Am Point-of-Sales werden darüber hinaus Beacons eingesetzt. Codes beinhalten Pull-Informationen, so dass Inhalte aktiv über Smartphones abgerufen werden müssen. Tags dagegen basieren auf Push-Informationen, so dass Inhalte direkt auf das Smartphone geschickt werden können (DSGVO-konforme Zustimmung vorausgesetzt). Auf dieser Grundlage können intelligente Verpackungen entwickelt werden. Bei der intelligenten Verpackung werden z. B. dynamische Icons bzw. interaktive Piktogramme eingesetzt, die mehrsprachig sind und regionalisiert und personalisiert werden können. Smart Labels werden das Supply-Chain-Management, den Produktlebenszyklus sowie das Customer-Relationship-Management nachhaltig verändern. Aktuelle Anwendungen sind z. B. Herstell-/Abfülldatum bzw. Haltbarkeitsdaten, smarte Einkaufswagen, Gepäckabfertigung, Müllabfuhr, Eintrittskarten u.v.m.
Digital Game-based Learning
D wie Digital Game-based Learning
Der Begriff Digital Game-based Learning beschreibt die Verschmelzung (Synthese) von spielerischer Wissensvermittlung mit Hilfe von Computer- und Videospielen. Hierbei werden verschiedene positive Effekte von digitalen Spielen genutzt, die herkömmliche Lernmethoden nicht bieten können. Hierzu gehört zum einen, dass normaler Leistungsdruck in digitalen Spielen in positive Motivation und somit lernfördernde Effekte umgewandelt wird. Hinzu kommen Ablenkung durch Spielspaß und eine höhere Identifizierung mit einer Zielsetzung. Das Lern- und Motivationspotential von digitalen Spielen führt häufig dazu, dass der Nutzer länger und intensiver lernt als bei herkömmlichen Methoden. Je besser die Interaktion mit dem Nutzer ist (Wechsel von Aktion und Reaktion), umso intensiver ist das Lernergebnis. Spiele sollten den Bedürfnissen der Spieler angepasst werden, die dann nicht nur konsumieren, sondern eigene Geschichten kreieren. Ein großer Vorteil digitaler Lernspiele ist, dass Fehler und Versagen nicht so stark geahndet werden wie im realen Leben. Außerdem sind digitale Spielwelten gut strukturiert und Informationen und/oder Interaktionen werden dann aufgerufen, wenn sie gebraucht werden. Wörter und Definitionen sind in Kontexte von Bildern, Videos oder Dialogen eingebunden. Digitale Spiele fordern und fördern das systemische und systematische Denken. Der Nutzer lernt, einzelne Handlungen im Kontext der Interaktionen zum Umfeld zu sehen. Und digitale Spiele sind perfekt zur Selbstreflexion. „Smart Tools“ wie Avatare oder Belohnungen im Spiel setzen gezielte Impulse und aktivieren Motivation und Leistungswille. Pädagogisch wertvolle Spiele setzen häufig auf cross-funktionale Teams mit unterschiedlichem Expertenwissen.
Digital Game-based Learning kann als Teilgebiet zum Edutainment sowie zum E-Learning gezählt werden. Edutainment vereint Bildung (Education) und Unterhaltung (Entertainment). Zu diesen gehören neben digitalen Lernspielen auch nicht-digitale Lernspiele und Lernvideos usw. Bei E-Learning hingegen kommen auch digitale Medien ohne Spielanteil zum Einsatz. Abhängig von der vorgesehenen Nutzergruppe unterscheiden sich digitale Lernspiele in Art und Ausrichtung ihrer Elemente. Beim Computer-based Training (CBT), Web-based Training (WBT) sowie virtuellen Lernwelten stehen die Lerninhalte im Vordergrund.
Digital Immigrants
D wie Digital Immigrants
Der Gegenbegriff zu →Digital Natives ist der Digital Immigrants. Er bezeichnet Personen, die erst im Erwachsenenalter mit digitalen Medien und Technologien in Berührung gekommen sind. Zu ihnen zählen Jahrgänge, die bis maximal Mitte der 1970-er Jahre geboren wurden. Hinzu kommt, dass sie die „digitale Sprache“ der jüngeren Generation weder beherrschen noch verstehen. Daher kann man häufig beobachten, dass Digital Immigrants digitale Aufgaben vorzugsweise an andere Personen delegieren.
Digital Native
D wie Digital Native
Der Begriff Digital Native (zu Deutsch: digitaler Ureinwohner) wurde erstmals 2001 erwähnt und steht für Personen, die von Kindheit an in der digitalen Welt aufgewachsen sind und den Umgang mit Informationstechnologien und dem Internet von klein auf gelernt haben. Daher steht der Begriff weniger für eine Altersgruppe, mit der häufig die Digital Natives umschrieben werden, sondern für die Art und Weise ihres Umgangs mit Medien und Technologie. Kulturell steht der Begriff auch für die „digitale Sprache“, mit der diese Generation aufwächst. Zu den Digital Natives gehören die →Generation Y (Me oder Millennials) und →Generation Z. Eine Welt ohne digitale Medien wie Software, Hardware und Computer-Peripherie, Internet und Suchmaschinen, E-Mails und Messenger-Dienste, Social Media und Microblogging, mobile Endgeräte wie Smartphones, Tablets und Wearables kennen sie nicht. Hirnforscher haben nachgewiesen, dass sich durch die permanente Nutzung digitaler Medien ihre Hirnstrukturen verändern. Digital Natives haben das Multitasking perfektioniert, in dem sie digitale Medien parallel anwenden und gleichzeitig verschiedene Interaktionen bearbeiten. Digital Natives bevorzugen deshalb Grafiken und arbeiten am besten vernetzt. Zur vollen Entfaltung kommen sie, wenn sie unmittelbar und häufig belohnt werden (→Gamification). Der Gegensatz zu ihnen ist der →Digital Immigrant.
Digital Vortex
D wie Digital Vortex
Der Digital Vortex visualisiert die Veränderungen infolge der zunehmenden Digitalisierung und deren Auswirkungen auf verschiedene Branchen. Untersucht werden diese seit 2015 durch das „Global Center for Digital Business Transformation“. Dargestellt werden die Ergebnisse jedes Jahr in einer Studie. Herzstück ist die Darstellung durch einen Strudel (Vortex), der die jeweilige Stärke widerspiegelt, mit der eine Branche unter Druck gerät. Der Strudel hat in den letzten Jahren nicht nur mehr Geschwindigkeit aufgenommen und ist enger geworden, sondern hat auch neue Branchen erfasst, von denen kaum zu erwarten war, dass diese so schnell im Strudel auftauchen.
Auslöser der Studie und der Darstellung des Digital Vortex waren ursprünglich Wahrnehmung, Einstellung und Verhaltensweisen von Führungskräften mit der digitalen Transformation, die nicht selten ignoriert oder unterschätzt wurde. Der Digital Vortex sollte dazu beitragen, auch Branchen zu sensibilisieren, die von der digitalen Entwicklung noch nicht so stark betroffen waren wie andere. Die Ergebnisse liefern weitaus mehr Informationen über Trends und dynamische Entwicklungen, als ursprünglich geplant war. Im Digital Vortex befinden sich von innen nach außen (Rotation) folgende Branchen:
- Medien/Unterhaltung
- Technischer Handel und Dienstleistungen
- Telekommunikation
- Konsumgüter/Handel
- Finanzen/Banken
- Reisen/Tourismus
- Transport/Logistik
- Bildung
- Dienstleistungen
- Gesundheit/Pharmaindustrie
- Produzierendes Gewerbe
- Energie und Dienstleistungen
- Immobilien Makler und Bauindustrie
Der aktuelle Digital Vortex bestätigt, dass alle bisher genannten Branchen näher an das Zentrum des Wirbels gerückt sind – dort, wo Geschwindigkeit und Größe der Veränderung den größten Druck auf alle Unternehmen ausübt. Die Positionen vieler Branchen haben sich drastisch und unvorhersehbar schnell in die Mitte verschoben. Es ist davon auszugehen, dass in den kommenden Jahren alle Branchen in dem Strudel der Digitalisierung auftauchen werden. Betrachtet man die Entwicklung seit 2015 und legt die Strudel übereinander, ist eine eindeutige Dynamik zu erkennen, mit welcher Geschwindigkeit der Druck für einzelne Branchen zunimmt. Die Auswirkungen der Pandemie sind in dem letzten Digital Vortex noch gar nicht berücksichtigt worden. Prognosen gehen davon aus, dass in den nächsten 5 Jahren disruptive Entwicklungen und Auswirkungen der Digitalisierung nahezu alle Branchen erfassen und stark bereinigen wird. Ein Drittel der Unternehmen soll demnach verdrängt oder sogar eliminiert werden.
D.I.N.K.
D wie D.I.N.K.
D.I.N.K. ist ein Akronym für Double Income No Kids (= doppeltes Einkommen, keine Kinder) und beschreibt ein Zielgruppensegment, das in der Regel Paare bezeichnet, die zwischen 25 und 45 Jahre alt sind, noch keine Kinder haben oder kinderlos bleiben wollen. Da beide Paare berufstätig sind, verfügen sie über ein entsprechend hohes (doppeltes) Einkommen und gelten in der Kundensegmentierung als interessante Zielgruppe.
Disruptive Innovationen
D wie Disruptive Innovationen
Als radikalste Form von Veränderungen gelten disruptive Innovationen. Diese beginnen häufig und meist unscheinbar in einer Nische oder am Rand einer Branche und entwickeln sich nicht selten erst einmal eine Zeitlang unter dem Radar. Grundlage ist entweder eine völlig neue Technologie oder ein völlig neuartiges Geschäftsmodell, mit dem Produkte und/oder Dienstleistungen angeboten werden, die nicht nur neu und einzigartig sind, sondern etablierte Unternehmen und ihre Produkte bis hin zu Geschäftsmodellen oder in Ausnahmen ganze Branchen überflüssig machen. Dies ist der wesentliche Unterschied zu inkrementellen Innovationen, bei denen Bestehendes maßgeblich weiter- oder neu entwickelt werden. Neue Technologien und/oder neuartige Geschäftsmodelle sind allerdings nicht Auslöser oder Ursache für disruptive Innovationen, sondern immer nur die Werkzeuge.
„Disruption geht vom Kunden aus, weil sich deren Bedürfnisse ändern. Der Erfolg digitaler Innovationen und Transformation hängt nicht vom Einsatz neuer Technologien ab. Entscheidend ist, dass wir willens und in der Lage sind, die Welt mit diesen neuen Möglichkeiten neu zu denken.“ (Quelle: Prof. Thales Teixeira, Harvard Business School l Digitale Disruption und Aufmerksamkeits-Ökonomie)
„Disruption entsteht, wenn unversorgte Kundenbedürfnisse angesprochen werden. Startups greifen etablierte Unternehmen niemals in der Breite an, sondern analysieren deren Schwachpunkte innerhalb der Wertschöpfungskette oder an den Markträndern. Neu ist bei vielen disruptiven Innovationen nicht das Produkt, sondern der Denkansatz.“ (Quelle: Clayton M. Christensen („The Innovator’s Dilemma“) gilt als Pionier disruptiver Innovation)
In den meisten Fällen gehen disruptive Innovationen von kleinen Unternehmen als Brancheneinsteiger oder Nischenanbieter aus. Marktführer sind in den seltensten Fällen Treiber dieser Entwicklungen. Anderenfalls müssten diese Unternehmen zum „Hacker“ ihres eigenen Geschäftsmodells werden. In traditionellen Organisationen sind disruptive Innovationen kaum möglich, da sich Unternehmen auf ihre Kernkompetenz und mit allen Prozessen auf das Kerngeschäft konzentrieren, Bestandskunden und -umsätze abgesichert und Neukunden eher über traditionelle Verdrängung gewonnen werden, bestehende Planungsvorgaben bonifiziert und somit Neues nicht honoriert wird, das Mindset der Führungskräfte und eine innovationsfreundliche Unternehmenskultur fehlen und den Mitarbeitern die nötigen Freiräume sowie Ressourcen verwehrt werden u.v.m.
Hinzu kommen strukturelle Probleme, da klassische Unternehmen immer noch in Silostrukturen und Matrixorganisationen aufgestellt sind. Und dies, obwohl sich seit Jahren die Erkenntnis durchsetzt, dass diese Organisationsform eher Abgrenzung, Fachbereichsegoismus und Ineffizienz fördern.
disruptive Innovatoren
D wie disruptive Innovatoren
Disruptive Innovatoren ist ein Begriff aus den innovativen Milieus. Typisch für dieses Milieu ist ihre Offenheit für Neues, eine hohe Risikobereitschaft und der Mut zu radikalen Innovationen mit disruptivem Potenzial. Ein weiteres Merkmal ist eine innovationsfreundliche Unternehmenskultur und insbesondere die aktive Einbindung und Motivation der Mitarbeiter. Innovationen werden als Querschnittsfunktion im gesamten Unternehmen gesehen und nicht als nicht als Top-Down-Prozess in abgegrenzten Fachbereichen. Knapp ein Fünftel der Unternehmen kann den disruptiven Innovatoren zugeordnet werden. Besonders auffallend ist der Anteil von Startups und junger Unternehmen. Ein Viertel von ihnen wurde erst in den vergangenen zehn Jahren gegründet.
→ innovative Milieus
Diversifikationsstrategie
D wie Diversifikationsstrategie
→Sprinkler-Strategie
DMAIC
D wie DMAIC
Das Akronym DMAIC steht für den Kernprozess der Qualitätsmanagement-Methode →Six Sigma und beschreibt dessen Phasen:
- Define (Definieren): was ist das Problem? In dieser Phase wird der Ist-Zustand dokumentiert, analysiert und definiert, welche Zielgruppe welchen Bedarf hat und wie dieser befriedigt werden soll. Auf dieser Basis werden dann die Leistungsmerkmale des Prozesses sowie Rahmenbedingungen (Umfang, Zeit, Budget etc.) definiert.
- Measure (Messen): wie ist die Performance? Zahlen, Daten und Fakten messen die Ausprägung der Leistungsmerkmale (Prozess-Mapping). Ziel ist die Funktionalität des Prozesses zu erfassen sowie die Meilensteine und Prioritäten zu definieren.
- Ana